IWF krever handling på pedofile som bruker generativ AI

IWF krever handling på pedofile som bruker generativ AI

Internet Watch Foundation advarer om at generativ kunstig intelligens truer med å muliggjøre "generering av bilder i stor skala", som vil "overvelde de som jobber med å bekjempe seksuelle overgrep mot barn på nettet."

Kroppen er skremt over den raske utviklingen av generativ AI i løpet av det siste året og spår at AI-generert materiale om seksuelt misbruk av barn (CSAM) bare vil bli mer grafisk over tid.

Den mest urovekkende av forbrytelsene

Internet Watch Foundation sier at generative AI har et stort potensial for å forbedre livene våre, men advarer om at teknologien lett kan omsettes til ondsinnede formål.

Susie Hargreaves, administrerende direktør i IWF, fortalte Guardian videre onsdag at byråets «verste mareritt har gått i oppfyllelse».

"Tidligere i år advarte vi om at AI-bilder snart ikke kan skilles fra ekte bilder av barn som lider av seksuelle overgrep, og at vi kan begynne å se at dette bildet sprer seg i mye større antall. Vi har nå passert det punktet, sier Hargreaves.

Hun la til, "Fryktelig nok ser vi at kriminelle bevisst trener AI på bilder av ekte ofre som allerede har vært utsatt for overgrep. Barn som har blitt voldtatt tidligere, blir nå innlemmet i nye scenarier fordi noen, et sted, ønsker å se det.»

Omfanget av problemet skaper allerede store problemer for de som kjemper mot CSAM.

I løpet av en måned ble 20,254 2,562 AI-genererte bilder lagt ut på et mørkt web-CSAM-forum. IWF-analytikere identifiserte XNUMX kriminelle pseudofotografier, laget ved hjelp av generativ AI.

Mer enn halvparten av disse viste barn under 10 år mens 564 ble klassifisert som kategori A-bilder – den mest alvorlige formen for overgrepsbilder.

IWF krever handling på pedofile som bruker generativ AI PlatoBlockchain-dataintelligens. Vertikalt søk. Ai.IWF krever handling på pedofile som bruker generativ AI PlatoBlockchain-dataintelligens. Vertikalt søk. Ai.

CSAM-bilder fra kjendiser

Generativ AI skaper nye kategorier av CSAM. IWF-funn viser at kjendiser blir avaldret og forvandlet til barn med AI-verktøy.

De aldrende kjendisene blir deretter plassert i voldelige scenarier for å tilfredsstille pedofile på nettet.

Barn til kjendiser er også målrettet, og "nudifiserer" ungdommene for brukere på darknet-fora.

IWF sier at disse bildene blir stadig vanskeligere å skille fra ekte CSAM.

"Den mest overbevisende AI CSAM er visuelt umulig å skille fra ekte CSAM, selv for trente IWF-analytikere. Tekst-til-bilde-teknologi vil bare bli bedre og utgjøre flere utfordringer for IWF og rettshåndhevelsesbyråer», heter det. rapporterer.

Regjeringens anbefalinger

IWF, som er basert i UK, ber teknologiselskaper fra hele verden om å sikre at CSAM er i strid med deres vilkår for bruksavtaler. Den ønsker også bedre opplæring for rettshåndhevelsesbyråer slik at de lettere kan identifisere denne typen bilder.

IWF ber også den britiske regjeringen om å gjøre AI CSAM til et viktig diskusjonstema på det kommende AI-toppmøtet i Bletchley Park neste måned.

Storbritannia håper å tiltrekke sentrale aktører fra næringslivet så vel som verdensledere til arrangementet. Så langt er den italienske premieren Giorgia Meloni den eneste bekreftede lederen for G7 som forventes å delta.

Tidstempel:

Mer fra MetaNews