Organ odpowiedzialny za ochronę prywatności nalega, aby firmy porzuciły oprogramowanie AI PlatoBlockchain Data Intelligence do analizy emocji. Wyszukiwanie pionowe. AI.

Strażnik ochrony prywatności nakłania firmy do rezygnacji z oprogramowania AI do analizy emocji

Firmy powinny zastanowić się dwa razy, zanim wdrożą oparte na sztucznej inteligencji systemy analizy emocji, które są podatne na błędy systemowe i inne kłopoty, ostrzegło w tym tygodniu brytyjskie Biuro Komisarza ds. Informacji (ICO).

Organizacje stają przed dochodzeniem, jeśli naciskają i wykorzystują tę słabą technologię, która naraża ludzi na ryzyko, dodał strażnik.

Algorytmy uczenia maszynowego, które mają przewidywać nastroje i reakcje danej osoby, wykorzystują wizję komputerową do śledzenia spojrzeń, ruchów twarzy i przetwarzania dźwięku w celu oceny tonacji i ogólnego nastroju. Jak można sobie wyobrazić, niekoniecznie jest to dokładne lub sprawiedliwe, a także mogą wystąpić problemy z prywatnością podczas przetwarzania danych na potrzeby szkolenia i wnioskowania.

Rzeczywiście, zastępca komisarza ICO Stephen Bonner powiedział, że technologia nie jest niezawodna, co prowadzi do systemowych uprzedzeń, niedokładności lub dyskryminacji określonych grup społecznych. „Zmiany na rynku biometrii i AI emocji są niedojrzałe. Mogą jeszcze nie działać, a nawet nigdy”. powiedziany w oświadczeniu. 

„Chociaż istnieją możliwości, ryzyko jest obecnie większe. W ICO obawiamy się, że nieprawidłowa analiza danych może skutkować niedokładnymi założeniami i osądami na temat osoby i prowadzić do dyskryminacji” – kontynuował jego oświadczenie.

Bonner zauważyła, że ​​oprogramowanie do analizy emocji jest często łączone z systemami biometrycznymi, które zbierają i przechowują szerszy zakres danych osobowych, wykraczający poza obrazy twarzy. Dostawcy oprogramowania często nie wyjaśniają, w jaki sposób te dane osobowe są przetwarzane lub zapisywane. 

„Jedynymi zrównoważonymi wdrożeniami biometrycznymi będą te, które są w pełni funkcjonalne, odpowiedzialne i wspierane przez naukę” – powiedział. „W obecnej sytuacji nie zobaczymy jeszcze, jak jakakolwiek technologia AI emocji rozwija się w sposób, który spełnia wymagania dotyczące ochrony danych, i mamy bardziej ogólne pytania dotyczące proporcjonalności, uczciwości i przejrzystości w tym obszarze”.

Co wydaje się uprzejmym sposobem powiedzenia: powinieneś używać tylko modeli AI do czytania emocji, które działają zgodnie z oczekiwaniami ICO, a te modele nie istnieją, więc powinieneś po prostu przestać robić to, co robisz.

Oczekuje się, że brytyjski organ nadzorujący ochronę danych opublikuje na wiosnę przyszłego roku raport szczegółowo opisujący, w jaki sposób dane biometryczne, w tym rozpoznawanie twarzy, identyfikacja odcisków palców i rozpoznawanie głosu, powinny być obsługiwane przez firmy.

„ICO będzie nadal analizować rynek, identyfikując interesariuszy, którzy chcą stworzyć lub wdrożyć te technologie oraz wyjaśniając znaczenie zwiększonej prywatności danych i zgodności, jednocześnie zachęcając do zaufania i pewności w działaniu tych systemów” – dodał Bonner.

Eksperci od lat biją na alarm w związku z analizą nastrojów i emocji. Uczucia są subiektywne i trudno je właściwie zinterpretować. Ludzie często nie są w stanie zrobić tego skutecznie dla siebie lub innych, nie mówiąc już o maszynach. ®

Znak czasu:

Więcej z Rejestr