Tietosuojavalvontajärjestö kehottaa yrityksiä luopumaan tunneanalyysin tekoälyohjelmistosta PlatoBlockchain Data Intelligencestä. Pystysuuntainen haku. Ai.

Privacy watchdog kehottaa yrityksiä luopumaan tunneanalyysiohjelmistosta

Yhdistyneen kuningaskunnan tietokomissaarin toimisto (ICO) varoitti tällä viikolla, että yritysten tulisi harkita kahdesti, ennen kuin ne ottavat käyttöön tekoälypohjaisia ​​tunneanalyysijärjestelmiä, jotka ovat alttiita systeemisille harhoille ja muille häiriöille.

Järjestöt joutuvat tutkimaan, jos ne painostavat ja käyttävät tätä ala-arvoista teknologiaa, joka asettaa ihmiset vaaraan, vahtikoira lisäsi.

Koneoppimisalgoritmit, joiden tarkoituksena on ennustaa ihmisen mielialaa ja reaktioita, käyttävät tietokonenäköä katseiden, kasvojen liikkeiden ja äänenkäsittelyn seuraamiseen taipumisen ja yleisen tunteen mittaamiseen. Kuten voisi kuvitella, se ei välttämättä ole tarkkaa tai oikeudenmukaista, ja tietojen käsittelyssä koulutusta ja päätelmiä varten voi olla tietosuojaongelmia.

Itse asiassa ICO:n apulaiskomissaari Stephen Bonner sanoi, että tekniikka ei ole idioottivarma, mikä johtaa systeemiseen harhaan, epätarkkuuteen tai tiettyjen sosiaalisten ryhmien syrjintään. "Biometristen ja tunne-AI-markkinoiden kehitys on epäkypsää. Ne eivät ehkä toimi vielä, eivätkä koskaan, hän sanoi lausunnossaan. 

”Vaikka mahdollisuuksia on, riskit ovat tällä hetkellä suuremmat. ICO:ssa olemme huolissamme siitä, että tietojen virheellinen analysointi voi johtaa olettamuksiin ja arvioihin henkilöstä, jotka ovat epätarkkoja ja johtaa syrjintään, hän jatkoi.

Bonnerin mukaan tunneanalyysiohjelmisto yhdistetään usein biometristen järjestelmien kanssa, ja ne keräävät ja tallentavat laajempaa henkilökohtaista tietoa kuin kasvokuvat. Ohjelmistotoimittajat eivät useinkaan kerro, kuinka näitä henkilötietoja käsitellään tai tallennetaan. 

"Ainoat kestävät biometriset sovellukset ovat täysin toimivia, vastuullisia ja tieteen tukemia", hän sanoi. "Tällä hetkellä emme vielä näe tunteiden tekoälyteknologian kehittyvän tavalla, joka täyttää tietosuojavaatimukset, ja meillä on yleisempiä kysymyksiä suhteellisuudesta, oikeudenmukaisuudesta ja avoimuudesta tällä alalla."

Mikä vaikuttaa kohteliaalta tavalta sanoa: sinun pitäisi käyttää vain tunteita lukevia tekoälymalleja, jotka toimivat ICO:n odottamalla tavalla, eikä niitä ole olemassa, joten sinun pitäisi vain lopettaa tekemäsi.

Ison-Britannian tietosuojaviranomaisen odotetaan julkaisevan ensi vuonna keväällä raportin, jossa kerrotaan, kuinka yritysten tulisi käsitellä biometrisiä tietoja, mukaan lukien kasvojentunnistus, sormenjälkitunnistus ja äänentunnistus.

"ICO jatkaa markkinoiden tarkastelua, tunnistaa sidosryhmät, jotka pyrkivät luomaan tai ottamaan käyttöön näitä teknologioita, ja selittää parannetun tietosuojan ja vaatimustenmukaisuuden tärkeyttä samalla, kun rohkaistaan ​​luottamusta näiden järjestelmien toimintaan", Bonner lisäsi.

Asiantuntijat ovat hälyttäneet tunne- ja tunneanalyysistä vuosia. Tunteet ovat subjektiivisia ja niitä on vaikea tulkita tarkasti. Ihmiset eivät useinkaan pysty tekemään tätä tehokkaasti itselleen tai muille, saati sitten koneista. ®

Aikaleima:

Lisää aiheesta Rekisteri