AI Undressing: Deepfake Nude Services skyter i været i popularitet - Dekrypter

AI Undressing: Deepfake Nakentjenester skyter i været i popularitet – Dekrypter

AI Undressing: Deepfake Nakentjenester skyter i været i popularitet - Dekrypter PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Svøpen med ondsinnet deepfake-skaping har spredt seg langt utover kjendiser og offentlige personer, og en ny rapport om intime bilder uten samtykke (NCII) finner at praksisen bare vokser etter hvert som bildegeneratorer utvikler seg og sprer seg.

"AI avkledning" er på vei oppover, en rapporterer av analysefirmaet Graphika på sosiale medier fredag, og beskrev praksisen som bruk generativ AI verktøy finjustert for å fjerne klær fra bilder lastet opp av brukere.

Spille- og Twitch-strømmesamfunnet kjempet med problemet tidligere i år da den fremtredende kringkasteren Brandon 'Atrioc' Ewing ved et uhell avslørte at han hadde sett på AI-generert dypfalske porno av kvinnelige streamere han kalte vennene sine, ifølge en rapporterer by Kotaku.

Ewing kom tilbake til plattformen i mars, angrende og rapporterte om uker med arbeid han hadde påtatt seg for å redusere skaden han hadde gjort. Men hendelsen åpnet slusene for et helt nettsamfunn.

Graphikas rapport viser at hendelsen bare var en dråpe i bøtta.

"Ved å bruke data levert av Meltwater, målte vi antall kommentarer og innlegg på Reddit og X som inneholder henvisningslenker til 34 nettsteder og 52 Telegram-kanaler som tilbyr syntetiske NCII-tjenester," skrev Graphika etterretningsanalytiker Santiago Lakatos. "Disse utgjorde 1,280 2022 i 32,100 sammenlignet med over 2,408 XNUMX så langt i år, noe som representerer en økning på XNUMX XNUMX % i volum fra år til år."

New York-baserte Graphika sier at eksplosjonen i NCII viser at verktøyene har flyttet seg fra nisjediskusjonsfora til en hytteindustri.

"Disse modellene lar et større antall leverandører enkelt og billig lage fotorealistisk NCII i skala," sa Graphika. "Uten slike leverandører, ville kundene deres trenge å være vert for, vedlikeholde og kjøre sine egne tilpassede bildespredningsmodeller - en tidkrevende og noen ganger kostbar prosess."

Graphika advarer om at økningen i populariteten til AI-avkledningsverktøy kan føre til ikke bare falske pornografisk materiale, men også målrettet trakassering, sextortering og generering av materiale om seksuelt misbruk av barn (CSAM).

I følge Graphika rapporterer, annonserer utviklere av AI-avkledningsverktøy på sosiale medier for å lede potensielle brukere til deres nettsider, private Telegram-chat eller Discord-servere hvor verktøyene kan finnes.

"Noen leverandører er åpenlyst i sine aktiviteter, og sier at de tilbyr 'avkledningstjenester' og legger ut bilder av folk de hevder har blitt 'avkledd' som bevis," skrev Graphika. "Andre er mindre eksplisitte og presenterer seg som AI-kunsttjenester eller Web3-fotogallerier, mens de inkluderer nøkkelbegreper knyttet til syntetisk NCII i sine profiler og innlegg."

Mens avkledning av AI-er vanligvis fokuserer på bilder, har AI også blitt brukt til å lage video dype forfalskninger ved hjelp av kjendiser, inkludert YouTube-personlighet MR. Beist og ikonisk Hollywood-skuespiller Tom Hanks.

Noen skuespillere liker Scarlett Johansson og indisk skuespiller Anil Kapoor tar til rettssystemet for å bekjempe den pågående trusselen om AI-deepfakes. Likevel, mens mainstream-underholdere kan få mer oppmerksomhet i media, voksne underholdere si at stemmene deres sjelden blir hørt.

"Det er veldig vanskelig," legendarisk voksen utøver og leder av Star Factory PR, Tanya Tate, fortalte dekryptere Tidligere. "Hvis noen er i mainstream, er jeg sikker på at det er mye enklere."

Selv uten fremveksten av AI og deepfake-teknologi, forklarte Tate at sosiale medier allerede er fylt med falske kontoer ved å bruke hennes sannsynlighet og innhold. Ikke hjelper saken er det pågående stigmaet som sexarbeidere møter, og tvinger dem og fansen deres til å holde seg i skyggen.

I oktober bemerket det britiske vakthundfirmaet Internet Watch Foundation (IWF), i en egen rapport, at over 20,254 XNUMX bilder av barnemishandling ble funnet på et enkelt darkweb-forum på bare én måned. IWF advarte om at AI-generert barnepornografi kunne "overvelde" internettet.

Takket være fremskritt innen generativ AI-bildebehandling, advarer IWF om det deepfake pornografi har utviklet seg til et punkt hvor det å fortelle forskjellen mellom AI-genererte bilder og autentiske bilder har blitt stadig mer komplekst, og etterlater rettshåndhevelse å forfølge online fantomer i stedet for faktiske overgrepsofre.

"Så det er den pågående tingen at du ikke kan stole på om ting er ekte eller ikke," fortalte Internet Watch Foundation CTO Dan Sexton Dekrypteret. "Tingene som vil fortelle oss om ting er ekte eller ikke er ikke 100%, og derfor kan du heller ikke stole på dem."

Når det gjelder Ewing, rapporterte Kotaku at streameren kom tilbake og sa at han jobbet med journalister, teknologer, forskere og kvinner berørt av hendelsen siden hans overtredelse i Januar. Ewing sa også at han sendte midler til Ryan Morrisons Los Angeles-baserte advokatfirma, Morrison Cooper, for å tilby juridiske tjenester til enhver kvinne på Twitch som trengte deres hjelp til å sende meldinger om fjerning til nettsteder som publiserer bilder av dem.

Ewing la til at han mottok forskning om dybden av deepfake-problemet fra den mystiske deepfake-forskeren Genevieve Oh.

"Jeg prøvde å finne "lyspunktene" i kampen mot denne typen innhold, sa Ewing.

Redigert av Ryan Ozawa.

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

Tidstempel:

Mer fra dekryptere