Privacy watchdog urges companies drop emotional analysis AI software PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Organismul de supraveghere a confidențialității îndeamnă companiile să renunțe la software-ul AI de analiză emoțională

Companiile ar trebui să se gândească de două ori înainte de a implementa sisteme de analiză emoțională bazate pe inteligență artificială, predispuse la prejudecăți sistemice și alte încurcături, a avertizat Biroul Comisarului pentru Informații (ICO) din Marea Britanie săptămâna aceasta.

Organizațiile se confruntă cu investigații dacă continuă și folosesc această tehnologie sub-normală care pune oamenii în pericol, a adăugat organul de pază.

Algoritmii de învățare automată care pretind să prezică dispozițiile și reacțiile unei persoane folosesc vederea computerizată pentru a urmări privirile, mișcările faciale și procesarea audio pentru a măsura inflexiunile și sentimentul general. După cum s-ar putea imagina, nu este neapărat exact sau corect și pot exista probleme de confidențialitate la manipularea datelor pentru instruire și inferență.

Într-adevăr, comisarul adjunct al ICO Stephen Bonner a spus că tehnologia nu este sigură, ceea ce duce la părtinire sistemică, inexactitate sau discriminare împotriva anumitor grupuri sociale. „Evoluțiile din piața biometrică și AI emoțională sunt imature. S-ar putea să nu funcționeze încă, sau chiar niciodată”, el a spus într-o declarație. 

„Deși există oportunități prezente, riscurile sunt în prezent mai mari. La ICO, suntem îngrijorați că o analiză incorectă a datelor ar putea duce la presupuneri și judecăți despre o persoană care sunt inexacte și să conducă la discriminare”, a continuat declarația sa.

Bonner a remarcat că software-ul de analiză emoțională este adesea asociat cu sisteme biometrice, care colectează și stochează o gamă mai largă de informații personale, dincolo de imaginile faciale. Furnizorii de software nu sunt adesea transparenți cu privire la modul în care aceste date personale sunt procesate sau salvate. 

„Singurele implementări biometrice durabile vor fi cele care sunt pe deplin funcționale, responsabile și susținute de știință”, a spus el. „Așa cum stau lucrurile, nu am văzut încă vreo tehnologie AI emoțională dezvoltată într-un mod care să satisfacă cerințele de protecție a datelor și avem întrebări mai generale despre proporționalitate, corectitudine și transparență în acest domeniu.”

Ceea ce pare un mod politicos de a spune: ar trebui să utilizați doar modele AI care citesc emoțiile, care funcționează așa cum se așteaptă ICO, iar acele modele nu există, așa că ar trebui să opriți ceea ce faceți.

Se așteaptă ca organul de supraveghere al confidențialității datelor din Marea Britanie să publice un raport care detaliază modul în care datele biometrice, inclusiv recunoașterea facială, identificarea amprentelor digitale și recunoașterea vocii ar trebui să fie gestionate de companii anul viitor, în primăvară.

„ICO va continua să examineze piața, identificând părțile interesate care doresc să creeze sau să implementeze aceste tehnologii și explicând importanța îmbunătățirii confidențialității datelor și a conformității, încurajând în același timp încrederea în modul în care funcționează aceste sisteme”, a adăugat Bonner.

Experții au tras un semnal de alarmă cu privire la analiza sentimentelor și emoțiilor de ani de zile. Sentimentele sunt subiective și este dificil să le interpretezi corect. De multe ori, oamenii nu pot face acest lucru eficient pentru ei înșiși sau pentru alții, cu atât mai puțin pentru mașini. ®

Timestamp-ul:

Mai mult de la Registrul