Privaatsusvalve kutsub ettevõtteid üles loobuma emotsionaalse analüüsi tehisintellekti tarkvarast PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

Privaatsusvalve kutsub ettevõtteid üles loobuma emotsionaalse analüüsi tehisintellekti tarkvarast

Ühendkuningriigi teabevoliniku büroo (ICO) hoiatas sel nädalal, et ettevõtted peaksid kaks korda mõtlema, enne kui võtavad kasutusele tehisintellektil põhinevad emotsionaalse analüüsi süsteemid, mis on altid süsteemsetele eelarvamustele ja muudele tõrgetele.

Organisatsioonid seisavad silmitsi uurimisega, kui nad suruvad peale ja kasutavad seda alatasemelist tehnoloogiat, mis seab inimesed ohtu, lisas valvekoer.

Masinõppe algoritmid, mille eesmärk on ennustada inimese meeleolu ja reaktsioone, kasutavad arvutinägemist, et jälgida pilku, näo liigutusi ja helitöötlust, et hinnata käände ja üldist meeleolu. Nagu arvata võib, pole see tingimata täpne ega õiglane ning andmete töötlemisel ja järelduste tegemisel võib esineda privaatsusprobleeme.

Tõepoolest, ICO asevolinik Stephen Bonner ütles, et tehnoloogia ei ole lollikindel, mis toob kaasa süsteemse eelarvamuse, ebatäpsuse või konkreetsete sotsiaalsete rühmade diskrimineerimise. „Biomeetria ja emotsioonide tehisintellekti turu areng on ebaküps. Need ei pruugi veel töötada või isegi mitte kunagi,” ta ütles avalduses. 

„Kuigi võimalusi on, on riskid praegu suuremad. ICO-s oleme mures, et andmete ebaõige analüüs võib põhjustada eeldusi ja hinnanguid isiku kohta, mis on ebatäpsed ja viia diskrimineerimiseni,“ jätkas ta avalduses.

Bonner märkis, et emotsionaalse analüüsi tarkvara on sageli seotud biomeetriliste süsteemidega, kogudes ja salvestades laiemat valikut isikuandmeid peale näopiltide. Tarkvarapakkujad ei ole sageli läbipaistvad selle kohta, kuidas neid isikuandmeid töödeldakse või salvestatakse. 

"Ainsad jätkusuutlikud biomeetrilised kasutusviisid on need, mis on täielikult funktsionaalsed, vastutavad ja teaduslikult toetatud," ütles ta. "Praeguse seisuga ei ole meil veel näha, et mis tahes emotsioonide AI tehnoloogia areneks viisil, mis vastaks andmekaitsenõuetele, ja meil on üldisemaid küsimusi proportsionaalsuse, õigluse ja läbipaistvuse kohta selles valdkonnas."

Tundub viisakas viis öelda: peaksite kasutama ainult emotsioone lugevaid tehisintellekti mudeleid, mis töötavad nii, nagu ICO eeldab, ja neid mudeleid pole olemas, seega peaksite lihtsalt oma tegevuse lõpetama.

Suurbritannia andmekaitseamet peaks avaldama järgmise aasta kevadel aruande, milles kirjeldatakse üksikasjalikult, kuidas ettevõtted biomeetrilisi andmeid, sealhulgas näotuvastust, sõrmejälgede tuvastamist ja hääletuvastust käsitlema.

"ICO jätkab turu kontrollimist, tuvastades sidusrühmad, kes soovivad neid tehnoloogiaid luua või kasutusele võtta, ning selgitades tõhustatud andmete privaatsuse ja vastavuse tähtsust, julgustades samal ajal usaldust nende süsteemide toimimise vastu," lisas Bonner.

Eksperdid on tunde- ja emotsioonianalüüsi pärast häirekella löönud juba aastaid. Tunded on subjektiivsed ja neid on raske täpselt tõlgendada. Inimesed ei saa seda sageli enda ega teiste jaoks tõhusalt teha, masinatest rääkimata. ®

Ajatempel:

Veel alates Register