Taylor Swift och Emma Watson riktade in sig som AI-porrökningar

Taylor Swift och Emma Watson riktade in sig som AI-porrökningar

Bilder på högprofilerade kvinnliga kändisar, inklusive Taylor Swift, Natalie Portman och Emma Watson, har manipulerats med hjälp av AI-teknik för att skapa erotiskt eller pornografiskt innehåll, när djupt falskt material med röntgenvärden ökar, enligt Daily Mail.

En ny rapport från det New York-baserade mjukvaruföretaget ActiveFence fann att antalet plattformar på den öppna webben "diskuterar och delar" kändisar deepfake porr under de sju månaderna fram till augusti i år ökade med 87 % jämfört med samma period 2022.

'Ingen är säker'

Medan A-listans stjärnor inom musik- och filmindustrin har varit de primära målen för olagligt sexuellt innehåll, forskare varnar för att "ingen är säker" från det potentiella övergreppet. ActiveFence sa att antalet privatpersoner som "klädde av sig" med AI ökade med nästan 400 % under det senaste året.

"I dag ser vi att det påverkar privatpersoner eftersom det är så omedelbart, så snabbt," sa Amir Oneli, forskare vid ActiveFence, till Post. Han syftade på effektiviteten med vilken AI kan generera falska sexuella bilder eller filmer, vilket sätter människors liv på spel.

"Det mest tragiska är att ingen är säker," sa han.

Deepfake-bilderna på de nakna kändisarna är gjorda med en typ av generativt AI-verktyg som kan klä av människor som är helt klädda i stillbilder. Ansiktet på en kändis som Taylor Swift kan läggas över kroppen på någon annan som ägnar sig åt pornografiska sexuella handlingar.

Enligt ActiveFence togs bilderna på kändisarna som riktades mot dessa attacker från deras sociala medier eller dejtingprofiler. Till exempel, falska AI-skapade porrfilmer "med sångaren Swift har visats hundratusentals gånger", säger rapporten.

Det kräver ingen stor skicklighet för kåta individer att komma åt det perversa materialet. En enkel Google Sök kommer att dyka upp en rad lättillgängliga deepfakes för kändisar. Oneli är orolig för att många kvinnor, både höga och låga, kan bli offer för AI-skapad "hämndporr".

Läs också: AI "naken" av unga flickor Spark Outrage i Spanish Town

Forskaren skyllde delvis på teknikföretag som t.ex Microsoft, OpenAI och Google för att göra problemet värre. I februari till exempel Facebook-ägare meta öppnade sin AI-teknik, vilket gjorde det möjligt för nybörjare att anpassa sina AI -chatbots att skapa deepfake porr.

OpenAI har ofta sagt att deras chatbots är tränade för att vägra uppmaningar relaterade till sex, rasism, barnmisshandel och annat sådant missnöje. Likaså betonade både Google och Microsoft att de har implementerat omfattande skyddsräcken för att förhindra missbruk.

Taylor Swift, Emma Watson och andra riktade mot AI-porrökningar

Taylor Swift, Emma Watson och andra riktade mot AI-porrökningar

AI Boom

Nu blomstrar AI-porrindustrin, sa onlinesäkerhetsföretaget ActiveFence. En uppsjö av sajter växer fram på Internet, med fans som delar online-verktyg för artificiell intelligens som förmodligen kan "klä av vem som helst".

Det finns massor av "how-to-guider", inklusive råd om att välja rätt bilder för att göra någon naken. Miljontals människor betalar för att få tillgång till det explicita sexuella innehållet av AI varje månad, rapporterade Mail.

MrDeepFakes, en populär falsk porrwebbplats, har 17 miljoner användare per månad, enligt webbanalysföretaget SimilarWeb. ActiveFence fann att vissa webbplatser tar så lite som $6 för att ladda ner falskt porrinnehåll, och priserna kan nå $560 för 2,000 XNUMX bilder.

För $400 erbjuder vissa webbplatser användare chansen att hoppa över kön via en så kallad "snabbpass"-biljett, rapporterade Mail. När användare köper längre versioner av AI-porr från MrDeepFakes omdirigeras de till Fan-Topia, en sida som påstår sig betala mycket för skapelser av sexuellt innehåll för vuxna.

"Det faktum att det är [MrDeepFakes] till och med tillåtet att fungera och är känt är en fullständig anklagelse mot varje tillsynsmyndighet i rymden, mot all brottsbekämpning, av hela systemet," teknisk juridisk expert Noelle Martin berättade NBC.

Den amerikanska kongressen debatterar fortfarande lagförslaget Preventing Deepfakes of Intimate Images, som syftar till att stoppa delning av olagligt röntgenklassat sexuellt material. Lagförslaget lades fram i maj.

Tidsstämpel:

Mer från MetaNews