Taylor Swift og Emma Watson målrettet som AI-pornobølger

Taylor Swift og Emma Watson målrettet som AI-pornobølger

Bilder av høyprofilerte kvinnelige kjendiser, inkludert Taylor Swift, Natalie Portman og Emma Watson, har blitt manipulert ved hjelp av AI-teknologi for å lage erotisk eller pornografisk innhold, ettersom dypt falskt X-rated materiale øker, ifølge Daily Mail.

En ny rapport fra det New York-baserte programvareselskapet ActiveFence fant at antall plattformer på det åpne nettet "diskuterer og deler" kjendis deepfake porno i løpet av de syv månedene frem til august i år steg med 87 % sammenlignet med samme periode i 2022.

"Ingen er trygge"

Mens A-listestjerner i musikk- og filmindustrien har vært hovedmålene for ulovlig seksuelt innhold, advarer forskere at "ingen er trygg" fra potensielt overgrep. ActiveFence sa at antallet privatpersoner "avkledd" ved bruk av AI økte med nesten 400 % det siste året.

"I dag ser vi at det påvirker privatpersoner fordi det er så umiddelbart, så raskt," fortalte Amir Oneli, en forsker ved ActiveFence. Post. Han refererte til effektiviteten som AI kan generere falske seksuelle bilder eller filmer med, og sette folks liv i fare.

"Det mest tragiske er at ingen er trygge," sa han.

Deepfake-bildene av nakne kjendiser er laget ved hjelp av en type generativ AI-verktøy som er i stand til å kle av mennesker som er fullt kledd i stillbilder. Ansiktet til en kjendis som Taylor Swift kan legges over kroppen til noen andre som driver med pornografiske seksuelle handlinger.

Ifølge ActiveFence ble bildene av kjendisene som ble målrettet i disse angrepene tatt fra deres sosiale medier eller datingprofiler. For eksempel har falske AI-skapte pornovideoer «med sangeren Swift blitt sett hundretusenvis av ganger», heter det i rapporten.

Det krever ikke stor dyktighet for kåte individer å få tilgang til det perverse materialet. En enkel Google søk vil dukke opp en rekke lett tilgjengelige deepfakes for kjendiser. Oneli er bekymret for at mange kvinner, både høye og lave, kan bli ofre for AI-skapt "hevnporno".

Les også: AI 'nakenbilder' av Young Girls Spark Outrage i Spanish Town

Forskeren skyldte delvis på teknologiselskaper som f.eks Microsoft, OpenAI og Google for å gjøre problemet verre. I februar, for eksempel Facebook-eier Meta åpen kildekode sin AI-teknologi, slik at nybegynnere kan tilpasse deres AI chatbots å lage deepfake porno.

OpenAI har ofte sagt at chatbotene deres er opplært til å avslå forespørsler relatert til sex, rasisme, barnemishandling og annen slik misnøye. Likeledes understreket både Google og Microsoft at de har implementert omfattende rekkverk for å hindre misbruk.

Taylor Swift, Emma Watson og andre målrettet som AI-pornooverganger

Taylor Swift, Emma Watson og andre målrettet som AI-pornooverganger

AI Boom

Nå blomstrer AI-pornoindustrien, sa nettsikkerhetsfirmaet ActiveFence. En mengde nettsteder vokser på Internett, med fans som deler kunstig intelligens-verktøy på nettet som angivelig kan "kle av hvem som helst".

Det er nok av "how-to-guider", inkludert råd om å velge de riktige bildene for å gjøre hvem som helst naken. Millioner av mennesker betaler for å få tilgang til det eksplisitte AI-seksuelle innholdet hver måned, rapporterte Mail.

MrDeepFakes, et populært falskt pornonettsted, har 17 millioner brukere per måned, ifølge nettanalyseselskapet SimilarWeb. ActiveFence fant ut at noen nettsteder tar så lite som $6 for å laste ned falskt pornoinnhold, og prisene kan nå $560 for 2,000 bilder.

For 400 dollar tilbyr noen nettsteder brukere muligheten til å hoppe over køen via en såkalt 'fast pass'-billett, rapporterte Mail. Når brukere kjøper lengre versjoner av AI-porno fra MrDeepFakes, blir de omdirigert til Fan-Topia, et nettsted som hevder å betale høyt for seksuelt innhold for voksne.

"Det faktum at det er [MrDeepFakes] til og med tillatt å operere og er kjent er en fullstendig anklage mot alle regulatorer i rommet, av all rettshåndhevelse, av hele systemet," teknisk juridisk ekspert Noelle Martin fortalte NBC.

Den amerikanske kongressen diskuterer fortsatt lovforslaget Preventing Deepfakes of Intimate Images, som tar sikte på å stoppe deling av ulovlig seksuelt materiale med røntgenvurdering. Lovforslaget ble fremmet i mai.

Tidstempel:

Mer fra MetaNews