FTC spør publikum om de vil ha AI-forfalskningsbeskyttelse

FTC spør publikum om de vil ha AI-forfalskningsbeskyttelse

FTC spør publikum om de vil ha AI forfalskningsbeskyttelse PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

FTC beveger seg for å gjøre ikke bare den falske AI-etterligningen av myndigheter og forretningsfolk ulovlig, men spør nå også den amerikanske offentligheten om de også vil ha beskyttelse. 

Den amerikanske forbrukervakthunden annonsert like mye på torsdag, sammen med innføringen av en endelig regel som vil gi kommisjonen muligheten til å sende inn føderale søksmål direkte mot AI-etterligningersvindlere som retter seg mot bedrifter og offentlige etater. Endringene vil også gjøre det mulig for byrået å rette seg raskere mot produsentene av koden som brukes i slike svindelforsøk.

Det opprinnelige forslaget dekker imidlertid ikke etterligning av privatpersoner. Så FTC slipper denne [PDF] tilleggsvarsel som ber om offentlig kommentar om hvorvidt de også bør omfattes av de nye reglene.

"Svindlere bruker AI-verktøy for å etterligne individer med uhyggelig presisjon og i en mye bredere skala," sa FTC-leder Lina Khan. "Med stemmekloning og annen AI-drevet svindel øker, er det viktigere enn noen gang å beskytte amerikanere mot etterligningssvindel." 

I tillegg til å gjøre det ulovlig å utgi seg for en annen person for å begå svindel, inneholder forslaget også en bestemmelse om å holde virksomheter ansvarlige for misbruk av teknologi de lager.  

Den såkalte "midler og instrumentalitet"-bestemmelsen i forslaget vil gi FTC muligheten til å holde selskaper som lager AI-teknologi som kan brukes til å etterligne personer ansvarlige hvis de "hadde grunn til å vite at varene og tjenestene de leverte vil være brukt for etterligning, sa FTC.

Til tross for en bestemmelse om å holde utviklere ansvarlige for misbruk av teknologien deres, er det ikke klart hvem, eller i hvilken grad, organisasjoner kan bli tiltalt. 

I følge forslaget er det ulovlig for en svindler å ringe eller sende meldinger til en person mens han utgir seg for å være en annen person, sende fysisk post som gir en feilaktig fremstilling av tilknytning, opprette en nettside, profil på sosiale medier eller e-postadresse som utgir seg for å være en person eller plassere annonser som utgir seg for å være en person eller deres tilknyttede selskaper.

Hvorvidt organisasjonene som sender falske meldinger kan holdes ansvarlige sammen med selskaper som legger til rette for å lage AI-stemmer og video, er ikke klart. Vi har bedt FTC om avklaring, men har ikke hørt tilbake.

FCC gjorde sine egne grep for å bekjempe AI-etterligning tidligere denne måneden, og bestemte at det var det ulovlig å bruke AI-genererte stemmer i robotsamtaler. I motsetning til denne nylig foreslåtte FTC-regelen, klargjorde FCC ganske enkelt at eksisterende telefonforbrukerbeskyttelseslover dekket bruken av AI-genererte stemmer. ®

Tidstempel:

Mer fra Registeret