Varuh zasebnosti poziva podjetja, da opustijo programsko opremo AI za čustveno analizo PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Varuh zasebnosti poziva podjetja, da opustijo programsko opremo AI za čustveno analizo

Podjetja bi morala dvakrat premisliti, preden uvedejo sisteme čustvene analize, ki jih poganja umetna inteligenca in so nagnjeni k sistemskim pristranskosti in drugim zapletom, je ta teden opozoril Urad informacijskega pooblaščenca Združenega kraljestva (ICO).

Organizacije se soočajo s preiskavo, če se zavzemajo in uporabljajo to slabšo tehnologijo, ki ogroža ljudi, je dodal nadzornik.

Algoritmi strojnega učenja, ki domnevno predvidevajo človekovo razpoloženje in reakcije, uporabljajo računalniški vid za sledenje pogledom, gibom obraza in obdelavo zvoka za merjenje pregiba in splošnega občutka. Kot si lahko predstavljate, ni nujno natančno ali pošteno in lahko pride do težav z zasebnostjo pri ravnanju s podatki za usposabljanje in sklepanje.

Dejansko je namestnik komisarja ICO Stephen Bonner dejal, da tehnologija ni zanesljiva, kar vodi v sistemsko pristranskost, netočnost ali diskriminacijo določenih družbenih skupin. »Razvoj na trgu biometrije in čustvene umetne inteligence je nezrel. Morda še ne bodo delovale ali pa sploh nikoli,« je dejal je dejal v izjavi. 

»Čeprav obstajajo priložnosti, so tveganja trenutno večja. Pri ICO smo zaskrbljeni, da bi lahko napačna analiza podatkov povzročila domneve in sodbe o osebi, ki so netočne in vodijo v diskriminacijo,« je nadaljevala njegova izjava.

Bonner je opozoril, da je programska oprema za analizo čustev pogosto povezana z biometričnimi sistemi, ki zbirajo in shranjujejo širši nabor osebnih podatkov, ki presegajo slike obraza. Ponudniki programske opreme pogosto niso pregledni glede tega, kako se ti osebni podatki obdelujejo ali shranjujejo. 

"Edine trajnostne biometrične uvedbe bodo tiste, ki bodo popolnoma funkcionalne, odgovorne in podprte z znanostjo," je dejal. "V sedanjem stanju bomo šele videli, da se bo tehnologija umetne inteligence čustev razvila na način, ki bo izpolnjeval zahteve glede varstva podatkov, in imamo bolj splošna vprašanja o sorazmernosti, pravičnosti in preglednosti na tem področju."

Kar se zdi vljuden način povedati: uporabljati bi morali le modele umetne inteligence za branje čustev, ki delujejo, kot pričakuje ICO, ti modeli pa ne obstajajo, zato bi morali preprosto prenehati s tem, kar počnete.

Pričakuje se, da bo britanski nadzornik zasebnosti prihodnje leto spomladi objavil poročilo s podrobnostmi o tem, kako naj podjetja ravnajo z biometričnimi podatki, vključno s prepoznavanjem obraza, identifikacijo prstnih odtisov in prepoznavanjem glasu.

"ICO bo še naprej natančno preiskoval trg, identificiral deležnike, ki želijo ustvariti ali uvesti te tehnologije, in pojasnjeval pomen izboljšane zasebnosti podatkov in skladnosti, hkrati pa spodbujal zaupanje v delovanje teh sistemov," je dodal Bonner.

Strokovnjaki že leta oglašajo alarm glede analize razpoloženj in čustev. Občutki so subjektivni in jih je težko natančno interpretirati. Ljudje tega pogosto ne zmorejo učinkovito narediti zase ali za druge, kaj šele za stroje. ®

Časovni žig:

Več od Register