Privatlivsvagthund opfordrer virksomheder til at droppe følelsesanalyse AI-software PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Privacy Watchdog opfordrer virksomheder til at droppe AI-software til følelsesmæssig analyse

Virksomheder bør tænke sig om to gange, før de implementerer AI-drevne følelsesmæssige analysesystemer, der er tilbøjelige til systemiske skævheder og andre problemer, advarede Storbritanniens Information Commissioner's Office (ICO) i denne uge.

Organisationer står over for efterforskning, hvis de presser på og bruger denne underordnede teknologi, der sætter mennesker i fare, tilføjede vagthunden.

Maskinlæringsalgoritmer, der foregiver at forudsige en persons humør og reaktioner, bruger computersyn til at spore blikke, ansigtsbevægelser og lydbehandling for at måle bøjning og generelle følelser. Som man måske forestiller sig, er det ikke nødvendigvis nøjagtigt eller retfærdigt, og der kan være privatlivsproblemer med at håndtere data til træning og slutninger.

Faktisk sagde ICOs vicekommissær Stephen Bonner, at teknologien ikke er idiotsikker, hvilket fører til systemisk skævhed, unøjagtighed eller diskrimination af specifikke sociale grupper. "Udviklingen på markedet for biometri og emotion AI er umoden. De virker måske ikke endnu, eller faktisk aldrig,” han sagde i en erklæring. 

"Selvom der er muligheder til stede, er risiciene i øjeblikket større. Hos ICO er vi bekymrede for, at ukorrekt analyse af data kan resultere i antagelser og domme om en person, som er unøjagtige og fører til diskrimination," fortsatte hans udtalelse.

Bonner bemærkede, at følelsesanalysesoftware ofte er parret med biometriske systemer, der indsamler og lagrer en bredere vifte af personlige oplysninger ud over ansigtsbilleder. Softwareudbydere er ofte ikke gennemsigtige om, hvordan disse personoplysninger behandles eller gemmes. 

"De eneste bæredygtige biometriske implementeringer vil være dem, der er fuldt funktionelle, ansvarlige og støttet af videnskaben," sagde han. "Som det ser ud, har vi endnu ikke set nogen følelsesmæssig AI-teknologi udvikle sig på en måde, der opfylder databeskyttelseskravene, og vi har mere generelle spørgsmål om proportionalitet, retfærdighed og gennemsigtighed på dette område."

Hvilket virker som en høflig måde at sige: du skal kun bruge følelseslæsende AI-modeller, der fungerer som ICO'en forventer, og disse modeller eksisterer ikke, så du skal bare stoppe med det, du laver.

Storbritanniens databeskyttelsesvagt forventes at offentliggøre en rapport, der beskriver, hvordan biometriske data, herunder ansigtsgenkendelse, fingeraftryksidentifikation og stemmegenkendelse skal håndteres af virksomheder næste år til foråret.

"ICO'en vil fortsætte med at granske markedet, identificere interessenter, der søger at skabe eller implementere disse teknologier, og forklare vigtigheden af ​​forbedret databeskyttelse og compliance, samtidig med at tillid og tillid til, hvordan disse systemer fungerer," tilføjede Bonner.

Eksperter har slået alarm over følelses- og følelsesanalyse i årevis. Følelser er subjektive, og det er svært at fortolke dem præcist. Mennesker kan ofte ikke gøre dette effektivt for sig selv eller andre, endsige maskiner. ®

Tidsstempel:

Mere fra Registret