IWF kräver åtgärder mot pedofiler som använder generativ AI

IWF kräver åtgärder mot pedofiler som använder generativ AI

Internet Watch Foundation varnar för att generativ AI hotar att möjliggöra "generering av bilder i stor skala", som kommer att "överväldiga de som arbetar för att bekämpa sexuella övergrepp på barn online."

Kroppen är oroad över den snabba utvecklingen av generativ AI under det senaste året och förutspår att AI-genererat material för sexuella övergrepp mot barn (CSAM) bara kommer att bli mer grafiskt med tiden.

Det mest oroväckande av brotten

Internet Watch Foundation säger att generativt AI har stor potential att förbättra våra liv, men varnar för att tekniken lätt kan vändas till illvilliga syften.

Susie Hargreaves, verkställande direktör för IWF, berättade för Guardian Onsdag att byråns "värsta mardrömmar har gått i uppfyllelse."

"Tidigare i år varnade vi att AI-bilder snart skulle kunna bli omöjliga att skilja från riktiga bilder på barn som utsätts för sexuella övergrepp, och att vi kunde börja se dessa bilder spridas i mycket större antal. Vi har nu passerat den punkten, säger Hargreaves.

Hon tillade, "Kryligt nog ser vi brottslingar som medvetet tränar sin AI på verkliga offerbilder som redan har blivit utsatta för övergrepp. Barn som har blivit våldtagna tidigare införlivas nu i nya scenarier eftersom någon, någonstans, vill se det.”

Omfattningen av problemet orsakar redan stora problem för dem som kämpar mot CSAM.

På en månad lades 20,254 2,562 AI-genererade bilder upp på ett CSAM-forum på en mörk webb. IWF-analytiker identifierade XNUMX XNUMX kriminella pseudofotografier, skapade med hjälp av generativ AI.

Mer än hälften av dessa visade barn under 10 år medan 564 klassades som kategori A-bilder – den allvarligaste formen av bilder av övergrepp mot barn.

IWF kräver åtgärder mot pedofiler som använder generativ AI PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.IWF kräver åtgärder mot pedofiler som använder generativ AI PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

CSAM-foton från kändisar

Generativ AI skapar nya kategorier av CSAM. IWF-rön visar att kändisar håller på att åldras och förvandlas till barn med AI-verktyg.

De avåldrade kändisarna placeras sedan i kränkande scenarier för att tillfredsställa pedofiler online.

Barn till kändisar är också måltavla, "nudifierar" ungdomarna för användare på darknet-forum.

IWF säger att dessa bilder blir allt svårare att skilja från verklig CSAM.

"Den mest övertygande AI CSAM är visuellt omöjlig att skilja från riktig CSAM, även för utbildade IWF-analytiker. Text-till-bild-tekniken kommer bara att bli bättre och innebära fler utmaningar för IWF och brottsbekämpande myndigheter”, läser rapport.

Regeringens rekommendationer

IWF, som är baserat i Storbritannien, ber teknikföretag från hela världen att se till att CSAM strider mot deras användarvillkor. Den vill också ha bättre utbildning för brottsbekämpande myndigheter så att de lättare kan identifiera dessa typer av bilder.

IWF ber också den brittiska regeringen att göra AI CSAM till ett stort diskussionsämne vid det kommande AI-toppmötet i Bletchley Park nästa månad.

Storbritannien hoppas kunna locka nyckelspelare från affärsvärlden såväl som världsledare till evenemanget. Hittills är Italiens premiärminister Giorgia Meloni den enda bekräftade ledaren för G7 som förväntas delta.

Tidsstämpel:

Mer från MetaNews