FTC spørger offentligheden, om de vil have AI-forfalskningsbeskyttelse

FTC spørger offentligheden, om de vil have AI-forfalskningsbeskyttelse

FTC spørger offentligheden, om de vil have AI forfalskningsbeskyttelse PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

FTC bevæger sig for at gøre ikke kun den svigagtige AI-efterligning af regerings- og forretningsfolk ulovlig, men spørger nu også den amerikanske offentlighed, om de også vil have noget beskyttelse. 

Den amerikanske forbrugervagthund annoncerede lige så meget på torsdag, sideløbende med indførelsen af ​​en endelig regel, der vil give Kommissionen mulighed for direkte at indgive føderale retssager mod AI-efterligning-svindlere, der retter sig mod virksomheder og offentlige myndigheder. Ændringerne vil også gøre det muligt for bureauet hurtigere at målrette mod skaberne af den kode, der bruges i sådanne svindel.

Det oprindelige forslag dækker dog ikke efterligning af privatpersoner. Så FTC frigiver denne [PDF] supplerende meddelelse, der beder om offentlig kommentar til, om de også skal være omfattet af de nye regler.

"Svindlere bruger AI-værktøjer til at efterligne personer med uhyggelig præcision og i en meget bredere skala," sagde FTC-formand Lina Khan. "Med stemmekloning og andre AI-drevne svindel er det mere kritisk end nogensinde at beskytte amerikanere mod efterligningssvig." 

Udover blot at gøre det ulovligt at udgive sig for en anden person til at begå bedrageri, indeholder forslaget også en bestemmelse om at holde virksomheder ansvarlige for misbrug af teknologi, de skaber.  

Den såkaldte "midler og instrumentalitet"-bestemmelse i forslaget vil give FTC mulighed for at holde virksomheder, der skaber AI-teknologi, der kan bruges til at efterligne folk ansvarlige, hvis de "havde grund til at vide, at de varer og tjenester, de leverede, vil være brugt med det formål at efterligne, siger FTC.

På trods af en bestemmelse om at holde udviklere ansvarlige for misbrug af deres teknologi, er det ikke klart, hvem eller i hvilket omfang organisationer kan blive retsforfulgt. 

Ifølge forslaget er det ulovligt for en svindler at ringe til eller sende en besked til en person, mens han udgiver sig for at være en anden person, sende fysisk post, der giver en forkert fremstilling af tilhørsforhold, oprette en hjemmeside, profil på sociale medier eller e-mailadresse, der efterligner en person eller placere annoncer, der udgiver sig for at være en person eller deres datterselskaber.

Hvorvidt de organisationer, der transmitterer svigagtige meddelelser, kan holdes ansvarlige sammen med virksomheder, der letter oprettelsen af ​​AI-stemmer og -videoer, er ikke klart. Vi har bedt FTC om afklaring, men har ikke hørt tilbage.

FCC gjorde sine egne tiltag for at bekæmpe AI-efterligning tidligere på måneden og besluttede, at det var det ulovligt at bruge AI-genererede stemmer i robocalls. I modsætning til denne nyligt foreslåede FTC-regel præciserede FCC blot, at eksisterende telefonlovgivning om forbrugerbeskyttelse dækkede brugen af ​​AI-genererede stemmer. ®

Tidsstempel:

Mere fra Registret