Chiny rozpoczęły używanie specjalistycznej technologii tzw. „rozpoznawania emocji” do monitorowania uczuć ludzi. Technologia ta pozwala chińskiemu rządowi oceniać pewne emocje i na ich podstawie nawet aresztować obywateli. Sztuczna inteligencja bada, czy dana osoba jest bardziej zdenerwowana niż zwykle, a czy tym samym jej zachowanie nie jest podejrzane. To oczywiście wszystko tylko w celu zapobiegania przestępczości – jak wspomniano w publikacji państwowej.
Chińska gazeta państwowa Global Times napisała w artykule z 4 marca , że Chińska Partia Komunistyczna (KPCh) stosuje tę technologię w „różnych dziedzinach”, takich jak zdrowie i bezpieczeństwo miejskie. Dodała, że obywatele Chin coraz bardziej przyzwyczajają się do codziennego korzystania z technologii rozpoznawania emocji.
Publikacja państwowa zilustrowała przykład, w jaki sposób technologia rozpoznawania emocji może zwalczać przestępczość. Za pomocą systemów ostrzegania ze sztucznej inteligencji (AI), obserwujących kierowców i pasażerów, funkcjonariusze mogą monitorować osoby znajdujące się wewnątrz samochodu, które wyglądają na dziwnie zdenerwowane. Podejmują działanie, przeszukują auto i ujawniają nielegalne narkotyki ukryte w pojeździe. Piękna historia, prawda?
Jak to działa?
Global Times zauważył, że technologia rozpoznawania emocji w Chinach osiągnęła „wysoką precyzję”. Według szefa EmoKit Tech Co., Ltd. Wei Qingchena, produkty oparte na rozpoznawaniu emocji AI mogą osiągać dokładność od 70 do 95 procent. Jego firma specjalizuje się w opracowywaniu produktów opartych na tzw. silniku rozpoznawania emocji Emokit:
Silnik „dokładnie łączy sygnały z czujników wideo, audio i ciała oraz wykonuje wieloczęstotliwościową analizę nakładek”.
Wei przytoczył przykład dokładności silnika Emokit w warunkach klinicznych w ramach projektu zrealizowanego we współpracy z renomowanym pekińskim szpitalem psychiatrycznym. System sztucznej inteligencji osiągnął łączną skomputeryzowaną dokładność 78,8 procent w identyfikacji schizofrenii, prawie taką samą jak w przypadku testów klinicznych. Dodał, że system zdiagnozował depresję z 70-procentową dokładnością, po prostu słuchając głosu pacjenta.
Jak sami widzimy – to po raz kolejny dla dobra ludzi.
Global Times zauważył również wykorzystanie technologii rozpoznawania emocji w chińskim systemie karnym w 2019 r., dodając, że „przyczyniła się ona do oceny ryzyka więźniów w kilku regionalnych więzieniach”. Według profesora socjologii Ma Ai z Chińskiego Uniwersytetu Nauk Politycznych i Prawa , technologia ta pomaga funkcjonariuszom więziennym ocenić, czy więzień „stanowi potencjalne ryzyko, czy ma możliwe problemy psychiczne oraz skłonności do przemocy lub samobójstwa”. Dodał, że technologia może również oszacować recydywę więźniów po zwolnieniu.
Ma powiedział państwowej gazecie, że ta „najbardziej zaawansowana technologia na świecie” jest używana w pięciu do sześciu więzieniach w Chinach. Rzeczywiście, teraz będzie stosowana w tym więzieniu zewnętrznym, na masową skalę.
Wykorzystanie technologii rozpoznawania emocji na więźniach, w realnym świecie może prowadzić do bardziej nikczemnych zastosowań
W raporcie MIT Technology Review z grudnia 2019 oszacowano, że rynek technologii rozpoznawania emocji wynosi co najmniej 20 miliardów dolarów – i szybko rośnie. Obecnie technologia wykorzystywana jest do oceny osób ubiegających się o pracę oraz podejrzanych o popełnienie przestępstwa. Przeprowadzane są dalsze testy dla innych aplikacji, takich jak zestawy słuchawkowe rzeczywistości wirtualnej, aby poznać stany emocjonalne graczy.
Redaktor ds. bezpieczeństwa narodowego w Breitbart , Frances Martel, ostrzegła, że Chiny mogą używać technologii rozpoznawania emocji w bardziej złowrogich zamiarach. Zaznaczyła, że można go np. wpleść w istniejące systemy nadzoru muzułmańskich Ujgurów w zachodnim autonomicznym regionie Xinjiang. KPCh zainstalowała kamery bezpieczeństwa o wysokiej rozdzielczości z technologią rozpoznawania twarzy, aby monitorować ruchy mniejszości ujgurskiej. Ujawnione dokumenty pokazują, jak Chiny wykorzystują sztuczną inteligencję i masową inwigilację do popełniania „ludobójstwa kulturowego” i umieszczania ludzi w obozach koncentracyjnych .)
Są wątpliwości? Naprawdę?
Oprócz możliwych „niewłaściwych” zastosowań, w rozwijającej się branży pojawiły się również obawy dotyczące prywatności. Niektórzy wyrazili swój dyskomfort związany z przechwytywaniem i „czytaniem” ich emocji przez technologię AI. Inni zwracali również uwagę na możliwe nadużycia i wycieki danych osobowych, które mogą następnie zagrażać bezpieczeństwu ludzi.
Jednak wielu chińskich znawców tematu zauważyło, że technologii rozpoznawania emocji nie trzeba oczerniać. Ekspert neurozarządzania z Uniwersytetu Ningbo , Ma Qingguo, powiedział:
„Prawo do życia jest podstawowym prawem człowieka. W niektórych przypadkach rozpoznawanie emocji może wykryć niebezpieczne lub agresywne osoby i pomóc zapobiegać ich występkom – co pomaga ratować ludzkie życie”.
Piękne, prawda? Jak ci ludzie w ogóle nie wymarli do tej pory jeszcze przy braku tej technologi?
Tymczasem Wei skomentował, że przetwarzanie emocji nie jest złą techniką „czytania w myślach”. Stwierdził, że chińskie firmy stojące za technologiami rozpoznawania emocji „ściśle przestrzegają zasady »technologia z ludźmi na dobre«”. Szef EmoKit powiedział Global Times, że technologie rozpoznawania emocji mają na celu „lepsze służenie ludziom” i „niepozwalanie, aby przestępcom uszły na sucho ich zbrodnie”.
Komentarz
To jest po prostu przerażające. Choć od samej technologii bardziej przerażające jest jak łatwo znaleźć uzasadnienie do jej stosowania. System punktowy, emocje na twarzy, ślad węglowy, obowiązkowe szczepienia, stałe monitorowanie lokalizacji… Na co jeszcze ludzie się zgodzą zanim globaliści zgotują nam orwellowską wizję „Roku 1984”?
Podziel się. komentarzu poniżej co o tym sądzisz.
Źródło: censoredscience.com