Az adatvédelmi felügyelet arra ösztönzi a vállalatokat, hogy hagyják abba az érzelmi elemző AI szoftvert, a PlatoBlockchain Data Intelligence-t. Függőleges keresés. Ai.

Az adatvédelmi felügyelet arra ösztönzi a vállalatokat, hogy hagyják abba az érzelmi elemző mesterséges intelligencia szoftvert

A vállalatoknak kétszer is meg kell gondolniuk, mielőtt mesterséges intelligencia alapú érzelemelemző rendszereket telepítenek, amelyek hajlamosak a szisztémás torzításokra és más snafukra – figyelmeztetett a héten az Egyesült Királyság Információs Biztosának Hivatala (ICO).

A szervezeteket vizsgálatnak vetik alá, ha ezt az alulmaradt technológiát alkalmazzák, amely veszélyezteti az embereket – tette hozzá a felügyelő.

Azok a gépi tanulási algoritmusok, amelyek megjósolják egy személy hangulatát és reakcióit, számítógépes látást használnak a tekintetek, az arcmozgások és a hangfeldolgozás nyomon követésére, hogy felmérjék az inflexiót és az általános hangulatot. Elképzelhető, hogy ez nem feltétlenül pontos vagy tisztességes, és adatvédelmi problémák adódhatnak az adatok kezelésekor a képzéshez és a következtetésekhez.

Sőt, az ICO biztos-helyettese, Stephen Bonner azt mondta, hogy a technológia nem bolondbiztos, ami rendszerszintű torzításhoz, pontatlansághoz vagy meghatározott társadalmi csoportokkal szembeni megkülönböztetéshez vezet. „A biometrikus adatok és az érzelmekkel kapcsolatos mesterséges intelligencia piacának fejlődése még kiforratlan. Lehet, hogy még nem működnek, sőt soha nem fognak működni” – mondta mondott egy nyilatkozatában. 

„Bár vannak lehetőségek, a kockázatok jelenleg nagyobbak. Az ICO-nál attól tartunk, hogy az adatok helytelen elemzése pontatlan feltételezésekhez és ítéletekhez vezethet egy személyről, és diszkriminációhoz vezethet” – folytatta közleménye.

Bonner megjegyezte, hogy az érzelemelemző szoftvereket gyakran biometrikus rendszerekkel párosítják, és az arcképeken túl szélesebb körű személyes információkat gyűjtenek és tárolnak. A szoftverszolgáltatók gyakran nem átláthatóak ezen személyes adatok feldolgozása vagy mentése tekintetében. 

„Az egyedüli fenntartható biometrikus telepítések azok, amelyek teljesen működőképesek, elszámoltathatóak és tudományosan támogatottak” – mondta. „A jelenlegi állás szerint még nem látjuk, hogy az érzelmekkel teli mesterséges intelligencia technológiája úgy fejlődjön, hogy az megfeleljen az adatvédelmi követelményeknek, és általánosabb kérdések merülnek fel az arányosságról, a méltányosságról és az átláthatóságról ezen a területen.”

Ez udvarias mondásnak tűnik: csak olyan érzelemolvasó mesterséges intelligencia modelleket használjon, amelyek az ICO elvárásai szerint működnek, és ezek a modellek nem léteznek, ezért egyszerűen hagyja abba, amit csinál.

A brit adatvédelmi felügyelet várhatóan jövő év tavaszán közzétesz egy jelentést arról, hogyan kezeljék a biometrikus adatokat, beleértve az arcfelismerést, az ujjlenyomat-azonosítást és a hangfelismerést a cégek.

„Az ICO továbbra is megvizsgálja a piacot, azonosítja azokat az érdekelt feleket, akik e technológiák létrehozására vagy bevezetésére törekednek, és elmagyarázza a fokozott adatvédelem és megfelelőség fontosságát, miközben ösztönzi a bizalmat e rendszerek működésében” – tette hozzá Bonner.

A szakértők évek óta kongatják a vészharangot a hangulat- és érzelemelemzés miatt. Az érzések szubjektívek, és nehéz őket pontosan értelmezni. Az emberek ezt gyakran nem tudják hatékonyan megtenni sem maguk, sem mások számára, nem is beszélve a gépekről. ®

Időbélyeg:

Még több A regisztráció