AI Undressing: Deepfake Nude Services skjuter i höjden i popularitet - Dekryptera

AI Undressing: Deepfake Nude Services skjuter i höjden i popularitet – Dekryptera

AI Undressing: Deepfake Nude Services skjuter i höjden i popularitet - Dekryptera PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Gisslet med skadlig deepfake-skapande har spridit sig långt utanför kändisernas och offentliga personers rike, och en ny rapport om intima bilder utan samtycke (NCII) finner att praktiken bara växer i takt med att bildgeneratorer utvecklas och sprider sig.

"AI avklädning" är på uppgång, en rapport av sociala medier analytics företaget Graphika sa på fredagen och beskrev praktiken som att använda generativ AI verktyg finjusterade för att ta bort kläder från bilder som laddats upp av användare.

Spel- och Twitch-streaminggemenskapen brottades med problemet tidigare i år när den framstående TV-sändaren Brandon 'Atrioc' Ewing av misstag avslöjade att han hade sett AI-genererad deepfake-porr av kvinnliga streamers som han kallade sina vänner, enligt en rapport by Kotaku.

Ewing återvände till plattformen i mars, ångerfull och rapporterade om veckor av arbete han hade åtagit sig för att mildra skadan han hade gjort. Men incidenten öppnade slussarna för en hel onlinegemenskap.

Graphikas rapport visar att händelsen bara var en droppe i hinken.

"Med hjälp av data från Meltwater mätte vi antalet kommentarer och inlägg på Reddit och X innehållande hänvisningslänkar till 34 webbplatser och 52 Telegram-kanaler som tillhandahåller syntetiska NCII-tjänster", skrev Graphikas underrättelseanalytiker Santiago Lakatos. "Dessa uppgick till 1,280 2022 32,100 jämfört med över 2,408 XNUMX hittills i år, vilket motsvarar en volymökning på XNUMX XNUMX % från året innan."

New York-baserade Graphika säger att explosionen i NCII visar att verktygen har flyttats från nischade diskussionsforum till en stugindustri.

"Dessa modeller tillåter ett större antal leverantörer att enkelt och billigt skapa fotorealistisk NCII i skala," sa Graphika. "Utan sådana leverantörer skulle deras kunder behöva vara värd för, underhålla och köra sina egna anpassade bildspridningsmodeller - en tidskrävande och ibland dyr process."

Graphika varnar för att den ökade populariteten för AI-avklädningsverktyg inte bara kan leda till falska pornografisk material men också riktade trakasserier, sextorkning och generering av material för sexuella övergrepp mot barn (CSAM).

Enligt Graphika rapport, annonserar utvecklare av verktyg för avklädning av AI på sociala medier för att leda potentiella användare till deras webbplatser, privata Telegram-chatt eller Discord-servrar där verktygen kan hittas.

"Vissa leverantörer är uppenbara i sin verksamhet och säger att de tillhandahåller "avklädningstjänster" och lägger upp bilder på människor som de hävdar har "kläddas av" som bevis", skrev Graphika. "Andra är mindre explicita och presenterar sig själva som AI-konsttjänster eller Web3-fotogallerier samtidigt som de inkluderar nyckeltermer förknippade med syntetisk NCII i sina profiler och inlägg."

Även om avklädda AI:er vanligtvis fokuserar på bilder, har AI också använts för att skapa video- deepfakes som liknar kändisar, inklusive YouTube-personlighet Herr. Fä och ikonisk Hollywood-skådespelare Tom Hanks.

Vissa skådespelare gillar Scarlett Johansson och indisk skådespelare Anil Kapoor tar till rättssystemet för att bekämpa det pågående hotet från AI deepfakes. Ändå, medan mainstream-underhållare kan få mer uppmärksamhet i media, vuxna underhållare säga att deras röster sällan hörs.

"Det är verkligen svårt," legendariska vuxen artist och chef för Star Factory PR, Tanya Tate, berättade Avkryptera tidigare. "Om någon är i mainstream är jag säker på att det är mycket lättare."

Även utan framväxten av AI och deepfake-teknik, förklarade Tate att sociala medier redan är fyllda med falska konton med hjälp av hennes sannolikhet och innehåll. Det hjälper inte saken är det pågående stigma som sexarbetare möter, vilket tvingar dem och deras fans att stanna i skuggan.

I oktober noterade det brittiska internetövervakningsföretaget Internet Watch Foundation (IWF), i en separat rapport, att över 20,254 XNUMX bilder av barnmisshandel hittades på ett enda darkweb-forum på bara en månad. IWF varnade för att AI-genererad barnpornografi kunde "överväldiga" internet.

Tack vare framstegen inom generativ AI-avbildning varnar IWF för det deepfake pornografi har utvecklats till en punkt där det har blivit allt mer komplext att se skillnaden mellan AI-genererade bilder och autentiska bilder, vilket gör att brottsbekämpande myndigheter eftersträvar onlinefantomer istället för faktiska offer för övergrepp.

"Så det finns det där pågående med att du inte kan lita på om saker är verkliga eller inte," sa Dan Sexton, CTO för Internet Watch Foundation Dekrypterat. "De saker som kommer att berätta för oss om saker är verkliga eller inte är inte 100%, och därför kan du inte lita på dem heller."

När det gäller Ewing rapporterade Kotaku att streamern återvände och sa att han arbetade med reportrar, teknologer, forskare och kvinnor som drabbats av incidenten sedan hans överträdelse i Januari. Ewing sa också att han skickade pengar till Ryan Morrisons Los Angeles-baserade advokatbyrå, Morrison Cooper, för att tillhandahålla juridiska tjänster till alla kvinnor på Twitch som behövde deras hjälp att utfärda meddelanden om borttagning till webbplatser som publicerar bilder på dem.

Ewing tillade att han fick forskning om djupet av deepfake-frågan från den mystiska deepfake-forskaren Genevieve Oh.

"Jag försökte hitta "ljuspunkterna" i kampen mot den här typen av innehåll, säger Ewing.

Redigerad av Ryan Ozawa.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Tidsstämpel:

Mer från Avkryptera