Personvernvakthund oppfordrer bedrifter til å droppe AI-programvare for følelsesmessig analyse PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Personvernvakthund oppfordrer bedrifter til å droppe AI-programvare for følelsesmessig analyse

Bedrifter bør tenke seg om to ganger før de distribuerer AI-drevne emosjonelle analysesystemer som er utsatt for systemiske skjevheter og andre problemer, advarte Storbritannias Information Commissioner's Office (ICO) denne uken.

Organisasjoner står overfor etterforskning hvis de fortsetter og bruker denne underordnede teknologien som setter folk i fare, la vaktbikkje til.

Maskinlæringsalgoritmer som påstår å forutsi en persons humør og reaksjoner bruker datasyn til å spore blikk, ansiktsbevegelser og lydbehandling for å måle bøyning og generelle følelser. Som man kanskje kan forestille seg, er det ikke nødvendigvis nøyaktig eller rettferdig, og det kan være personvernproblemer med å håndtere data for opplæring og slutninger.

ICOs visekommissær Stephen Bonner sa faktisk at teknologien ikke er idiotsikker, noe som fører til systemisk skjevhet, unøyaktighet eller diskriminering av spesifikke sosiale grupper. "Utviklingen i markedet for biometri og emotion AI er umoden. De fungerer kanskje ikke ennå, eller faktisk noen gang,» han sa i en uttalelse. 

"Selv om det er muligheter tilstede, er risikoen for øyeblikket større. Hos ICO er vi bekymret for at feil analyse av data kan resultere i antakelser og vurderinger om en person som er unøyaktige og fører til diskriminering,» fortsatte uttalelsen hans.

Bonner bemerket at programvare for emosjonell analyse ofte er sammenkoblet med biometriske systemer, og samler inn og lagrer et bredere spekter av personlig informasjon utover ansiktsbilder. Programvareleverandører er ofte ikke transparente om hvordan disse personopplysningene behandles eller lagres. 

"De eneste bærekraftige biometriske distribusjonene vil være de som er fullt funksjonelle, ansvarlige og støttet av vitenskapen," sa han. "Som det ser ut, har vi ennå ikke sett noen følelsesmessig AI-teknologi utvikle seg på en måte som tilfredsstiller kravene til databeskyttelse, og vi har mer generelle spørsmål om proporsjonalitet, rettferdighet og åpenhet på dette området."

Noe som virker en høflig måte å si: du bør bare bruke følelseslesende AI-modeller som fungerer slik ICO forventer, og disse modellene eksisterer ikke, så du bør bare slutte med det du gjør.

Storbritannias vakthund for personvern forventes å publisere en rapport som beskriver hvordan biometriske data, inkludert ansiktsgjenkjenning, fingeravtrykksidentifikasjon og stemmegjenkjenning bør håndteres av selskaper neste år om våren.

"ICO vil fortsette å granske markedet, identifisere interessenter som søker å lage eller distribuere disse teknologiene, og forklare viktigheten av forbedret datapersonvern og samsvar, samtidig som det oppmuntrer tillit og tillit til hvordan disse systemene fungerer," la Bonner til.

Eksperter har slått alarm over sentiment- og følelsesanalyse i årevis. Følelser er subjektive og det er vanskelig å tolke dem nøyaktig. Mennesker kan ofte ikke gjøre dette effektivt for seg selv eller andre, enn si maskiner. ®

Tidstempel:

Mer fra Registeret