Firmy powinny zastanowić się dwa razy, zanim wdrożą oparte na sztucznej inteligencji systemy analizy emocji, które są podatne na błędy systemowe i inne kłopoty, ostrzegło w tym tygodniu brytyjskie Biuro Komisarza ds. Informacji (ICO).
Organizacje stają przed dochodzeniem, jeśli naciskają i wykorzystują tę słabą technologię, która naraża ludzi na ryzyko, dodał strażnik.
Algorytmy uczenia maszynowego, które mają przewidywać nastroje i reakcje danej osoby, wykorzystują wizję komputerową do śledzenia spojrzeń, ruchów twarzy i przetwarzania dźwięku w celu oceny tonacji i ogólnego nastroju. Jak można sobie wyobrazić, niekoniecznie jest to dokładne lub sprawiedliwe, a także mogą wystąpić problemy z prywatnością podczas przetwarzania danych na potrzeby szkolenia i wnioskowania.
Rzeczywiście, zastępca komisarza ICO Stephen Bonner powiedział, że technologia nie jest niezawodna, co prowadzi do systemowych uprzedzeń, niedokładności lub dyskryminacji określonych grup społecznych. „Zmiany na rynku biometrii i AI emocji są niedojrzałe. Mogą jeszcze nie działać, a nawet nigdy”. powiedziany w oświadczeniu.
„Chociaż istnieją możliwości, ryzyko jest obecnie większe. W ICO obawiamy się, że nieprawidłowa analiza danych może skutkować niedokładnymi założeniami i osądami na temat osoby i prowadzić do dyskryminacji” – kontynuował jego oświadczenie.
Bonner zauważyła, że oprogramowanie do analizy emocji jest często łączone z systemami biometrycznymi, które zbierają i przechowują szerszy zakres danych osobowych, wykraczający poza obrazy twarzy. Dostawcy oprogramowania często nie wyjaśniają, w jaki sposób te dane osobowe są przetwarzane lub zapisywane.
„Jedynymi zrównoważonymi wdrożeniami biometrycznymi będą te, które są w pełni funkcjonalne, odpowiedzialne i wspierane przez naukę” – powiedział. „W obecnej sytuacji nie zobaczymy jeszcze, jak jakakolwiek technologia AI emocji rozwija się w sposób, który spełnia wymagania dotyczące ochrony danych, i mamy bardziej ogólne pytania dotyczące proporcjonalności, uczciwości i przejrzystości w tym obszarze”.
Co wydaje się uprzejmym sposobem powiedzenia: powinieneś używać tylko modeli AI do czytania emocji, które działają zgodnie z oczekiwaniami ICO, a te modele nie istnieją, więc powinieneś po prostu przestać robić to, co robisz.
Oczekuje się, że brytyjski organ nadzorujący ochronę danych opublikuje na wiosnę przyszłego roku raport szczegółowo opisujący, w jaki sposób dane biometryczne, w tym rozpoznawanie twarzy, identyfikacja odcisków palców i rozpoznawanie głosu, powinny być obsługiwane przez firmy.
„ICO będzie nadal analizować rynek, identyfikując interesariuszy, którzy chcą stworzyć lub wdrożyć te technologie oraz wyjaśniając znaczenie zwiększonej prywatności danych i zgodności, jednocześnie zachęcając do zaufania i pewności w działaniu tych systemów” – dodał Bonner.
Eksperci od lat biją na alarm w związku z analizą nastrojów i emocji. Uczucia są subiektywne i trudno je właściwie zinterpretować. Ludzie często nie są w stanie zrobić tego skutecznie dla siebie lub innych, nie mówiąc już o maszynach. ®
- AI
- ai sztuka
- generator sztuki ai
- masz robota
- sztuczna inteligencja
- certyfikacja sztucznej inteligencji
- sztuczna inteligencja w bankowości
- robot sztucznej inteligencji
- roboty sztucznej inteligencji
- oprogramowanie sztucznej inteligencji
- blockchain
- konferencja blockchain ai
- pomysłowość
- sztuczna inteligencja konwersacyjna
- konferencja kryptograficzna
- Dall's
- głęboka nauka
- google to
- uczenie maszynowe
- plato
- Platon Ai
- Analiza danych Platona
- Gra Platona
- PlatoDane
- platogaming
- skala ai
- składnia
- Rejestr
- zefirnet