AI Uitkleden: Deepfake Naaktdiensten schieten omhoog in populariteit - Decrypt

AI Uitkleden: Deepfake Naaktdiensten schieten omhoog in populariteit – Decoderen

AI uitkleden: deepfake-naaktservices schieten omhoog in populariteit - Decodeer PlatoBlockchain-data-intelligentie. Verticaal zoeken. Ai.

De plaag van kwaadaardige deepfake-creatie heeft zich tot ver buiten het domein van beroemdheden en publieke figuren verspreid, en uit een nieuw rapport over niet-consensuele intieme beelden (NCII) blijkt dat de praktijk alleen maar groeit naarmate beeldgeneratoren evolueren en zich verspreiden.

“AI-uitkleden” is in opkomst, a verslag zei het sociale-media-analysebedrijf Graphika vrijdag en beschreef de praktijk als gebruik generatieve AI tools die zijn afgestemd om kleding te verwijderen uit afbeeldingen die door gebruikers zijn geüpload.

De gaming- en Twitch-streaminggemeenschap worstelde eerder dit jaar met het probleem toen de prominente omroep Brandon 'Atrioc' Ewing per ongeluk onthulde dat hij door AI gegenereerde deepfake-porno had bekeken van vrouwelijke streamers die hij zijn vrienden noemde, volgens een verslag by Kotaku.

Ewing keerde in maart berouwvol terug naar het platform en rapporteerde over weken werk dat hij had ondernomen om de schade die hij had aangericht te beperken. Maar het incident zette de sluizen open voor een hele online gemeenschap.

Uit Graphika's rapport blijkt dat het incident slechts een druppel op een gloeiende plaat was.

“Met behulp van gegevens van Meltwater hebben we het aantal reacties en berichten op Reddit en X gemeten met verwijzingslinks naar 34 websites en 52 Telegram-kanalen die synthetische NCII-diensten aanbieden”, schreef Graphika-inlichtingenanalist Santiago Lakatos. “Dit waren er in 1,280 in totaal 2022, vergeleken met ruim 32,100 tot nu toe dit jaar, wat neerkomt op een volumestijging van 2,408% op jaarbasis.”

Het in New York gevestigde Graphika zegt dat de explosie in NCII aantoont dat de tools zijn verschoven van niche-discussieforums naar een huisnijverheid.

"Deze modellen stellen een groter aantal aanbieders in staat om eenvoudig en goedkoop fotorealistische NCII op schaal te creëren", aldus Graphika. “Zonder dergelijke providers zouden hun klanten hun eigen aangepaste modellen voor beeldverspreiding moeten hosten, onderhouden en uitvoeren – een tijdrovend en soms duur proces.”

Graphika waarschuwt dat de toenemende populariteit van AI-uitkleedtools niet alleen tot nep zou kunnen leiden pornografisch materiaal, maar ook gerichte intimidatie, afpersing en het genereren van materiaal over seksueel misbruik van kinderen (CSAM).

Volgens de Graphika verslag, ontwikkelaars van AI-uitkleedtools adverteren op sociale media om potentiële gebruikers naar hun websites, privé Telegram-chat of Discord-servers te leiden waar de tools te vinden zijn.

“Sommige aanbieders zijn openlijk in hun activiteiten, stellen dat ze ‘uitkleeddiensten’ verlenen en plaatsen als bewijs foto’s van mensen waarvan zij beweren dat ze ‘uitgekleed’ zijn”, schreef Graphika. “Anderen zijn minder expliciet en presenteren zichzelf als AI-kunstdiensten of Web3-fotogalerijen, terwijl ze in hun profielen en berichten belangrijke termen opnemen die verband houden met synthetische NCII.”

Hoewel AI's bij het uitkleden doorgaans gericht zijn op foto's, wordt AI ook gebruikt om te creëren video- deepfakes waarbij de gelijkenis van beroemdheden wordt gebruikt, waaronder YouTube-persoonlijkheid Meneer Beest en iconische Hollywood-acteur Tom Hanks.

Sommige acteurs houden ervan Scarlett Johansson en Indiase acteur Anil Kapoor wenden zich tot het rechtssysteem om de voortdurende dreiging van AI-deepfakes te bestrijden. Hoewel reguliere entertainers meer media-aandacht kunnen krijgen, volwassen entertainers zeggen dat hun stem zelden wordt gehoord.

“Het is echt moeilijk”, zegt de legendarische volwassen artiest en hoofd van Star Factory PR, Tanya Tate, vertelde decoderen eerder. "Als iemand tot de mainstream behoort, weet ik zeker dat het veel gemakkelijker is."

Zelfs zonder de opkomst van AI en deepfake-technologie legde Tate uit dat sociale media al gevuld zijn met nepaccounts die gebruik maken van haar waarschijnlijkheid en inhoud. Wat de zaken niet helpt, is het aanhoudende stigma waarmee sekswerkers worden geconfronteerd, waardoor zij en hun fans gedwongen worden in de schaduw te blijven.

In oktober merkte het Britse internetwaakhondbedrijf Internet Watch Foundation (IWF) in een afzonderlijk rapport op dat er in slechts één maand tijd meer dan 20,254 afbeeldingen van kindermisbruik op één enkel darkweb-forum waren gevonden. Het IWF waarschuwde dat door AI gegenereerde kinderpornografie “zou kunnenoverweldigen" het internet.

Dankzij de vooruitgang op het gebied van generatieve AI-beeldvorming waarschuwt het IWF daarvoor deepfake pornografie is zo ver gevorderd dat het onderscheid tussen door AI gegenereerde beelden en authentieke beelden steeds complexer is geworden, waardoor wetshandhavingsinstanties online fantomen achtervolgen in plaats van daadwerkelijke slachtoffers van misbruik.

"Dus er is dat voortdurende ding waarbij je niet kunt vertrouwen of dingen echt zijn of niet", vertelde Dan Sexton, CTO van de Internet Watch Foundation ontcijferenT. “De dingen die ons vertellen of dingen echt zijn of niet, zijn niet 100%, en daarom kun je ze ook niet vertrouwen.”

Wat Ewing betreft, meldde Kotaku dat de streamer terugkeerde en zei dat hij samenwerkte met verslaggevers, technologen, onderzoekers en vrouwen die door het incident waren getroffen sinds zijn overtreding in Januari. Ewing zei ook dat hij geld had gestuurd naar het in Los Angeles gevestigde advocatenkantoor van Ryan Morrison. Morrison Kuiper, om juridische diensten te verlenen aan elke vrouw op Twitch die hun hulp nodig had bij het uitvaardigen van verwijderingsverzoeken aan sites die afbeeldingen van hen publiceren.

Ewing voegde eraan toe dat hij onderzoek kreeg over de diepte van het deepfake-probleem van de mysterieuze deepfake-onderzoeker Genevieve Oh.

"Ik probeerde de 'lichtpuntjes' te vinden in de strijd tegen dit soort inhoud", zei Ewing.

Bewerkt door Ryan Ozawa.

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

Tijdstempel:

Meer van decoderen