FTC frågar allmänheten om de vill ha skydd för falska AI

FTC frågar allmänheten om de vill ha AI-förfalskningsskydd

FTC frågar allmänheten om de vill ha AI förfalskningsskydd PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

FTC försöker göra inte bara den bedrägliga AI-imitationen av regerings- och affärsfolk olaglig, utan frågar nu också den amerikanska allmänheten om de också vill ha skydd. 

USA:s konsumentövervakning meddelade lika mycket på torsdagen, tillsammans med införandet av en slutlig regel som kommer att ge kommissionen möjlighet att direkt väcka federala stämningar mot AI-imitationssvindlare som riktar sig mot företag och statliga myndigheter. Ändringarna kommer också att göra det möjligt för byrån att snabbare rikta in sig på skaparna av koden som används i sådana bedrägerier.

Det ursprungliga förslaget omfattar dock inte efterbildning av privatpersoner. Så FTC släpper detta [PDF] kompletterande meddelande som ber om offentliga kommentarer om huruvida de också ska omfattas av de nya reglerna.

"Bedragare använder AI-verktyg för att imitera individer med kuslig precision och i en mycket bredare skala", säger FTC:s ordförande Lina Khan. "Med röstkloning och andra AI-drivna bedrägerier ökar, är det viktigare än någonsin att skydda amerikaner från imitationsbedrägerier." 

Förutom att helt enkelt göra det olagligt att utge sig för att vara en annan individ för att begå bedrägerier, innehåller förslaget också en bestämmelse om att hålla företag ansvariga för missbruk av teknik de skapar.  

Den så kallade "medel och hjälpmedel"-bestämmelsen i förslaget skulle ge FTC möjligheten att hålla företag som skapar AI-teknik som kan användas för att utge sig för människor ansvariga om de "hade anledning att veta att de varor och tjänster de tillhandahåller kommer att vara används i syfte att efterlikna sig, säger FTC.

Trots en bestämmelse om att hålla utvecklare ansvariga för missbruk av deras teknik, är det inte klart vem, eller i vilken utsträckning, organisationer kan åtalas. 

Enligt förslaget är det olagligt för en bedragare att ringa eller skicka meddelanden till en person medan han utger sig för att vara en annan individ, skicka fysisk post som ger en felaktig bild av tillhörighet, skapa en webbplats, profil på sociala medier eller e-postadress som utger sig för att vara en person eller placera annonser som poserar som en person eller deras dotterbolag.

Huruvida de organisationer som sänder bedrägliga meddelanden kan hållas ansvariga tillsammans med företag som underlättar skapandet av AI-röster och video är inte klart. Vi har bett FTC om ett förtydligande, men har inte hört något.

FCC gjorde sina egna åtgärder för att bekämpa AI-imitation tidigare denna månad och beslutade att så var det olagligt att använda AI-genererade röster i robocall. Till skillnad från denna nyligen föreslagna FTC-regel klargjorde FCC helt enkelt att befintliga lagar om telefonkonsumentskydd täckte användningen av AI-genererade röster. ®

Tidsstämpel:

Mer från Registret