L’IWF chiede un’azione contro i pedofili utilizzando l’intelligenza artificiale generativa

L’IWF chiede un’azione contro i pedofili utilizzando l’intelligenza artificiale generativa

La Internet Watch Foundation avverte che l’intelligenza artificiale generativa minaccia di consentire la “generazione di immagini su larga scala”, che “travolgerà coloro che lavorano per combattere gli abusi sessuali sui minori online”.

L’organismo è allarmato per il rapido progresso dell’intelligenza artificiale generativa nel corso dell’ultimo anno e prevede che il materiale pedopornografico (CSAM) generato dall’intelligenza artificiale diventerà solo più grafico nel tempo.

Il più inquietante dei delitti

La Internet Watch Foundation afferma che è generativo AI ha un grande potenziale per migliorare la nostra vita, ma avverte che la tecnologia può essere facilmente utilizzata per scopi malevoli.

Lo ha detto al Guardian Susie Hargreaves, amministratore delegato dell'IWF Mercoledì che i “peggiori incubi dell’agenzia si sono avverati”.

“All’inizio di quest’anno, abbiamo avvertito che le immagini dell’intelligenza artificiale potrebbero presto diventare indistinguibili dalle immagini reali di bambini che subiscono abusi sessuali e che potremmo iniziare a vedere queste immagini proliferare in numero molto maggiore. Ora abbiamo superato quel punto”, ha detto Hargreaves.

Ha aggiunto: “In modo agghiacciante, stiamo vedendo i criminali addestrare deliberatamente la loro intelligenza artificiale su immagini di vittime reali che hanno già subito abusi. I bambini che sono stati violentati in passato vengono ora incorporati in nuovi scenari perché qualcuno, da qualche parte, vuole vederlo”.

La portata del problema sta già causando grossi problemi a coloro che lottano contro il materiale pedofilo.

In un mese 20,254 immagini generate dall'intelligenza artificiale sono state pubblicate su un forum CSAM del dark web. Gli analisti dell’IWF hanno identificato 2,562 pseudo-fotografie criminali, realizzate con l’aiuto dell’intelligenza artificiale generativa.

Più della metà di queste mostravano bambini di età inferiore ai 10 anni, mentre 564 sono state classificate come immagini di categoria A, la forma più grave di immagini di abusi sui minori.

L'IWF chiede un intervento contro i pedofili utilizzando l'intelligenza artificiale generativa PlatoBlockchain. Ricerca verticale. Ai.L'IWF chiede un intervento contro i pedofili utilizzando l'intelligenza artificiale generativa PlatoBlockchain. Ricerca verticale. Ai.

Foto CSAM di celebrità

L’intelligenza artificiale generativa sta creando nuove categorie di materiale pedopornografico. I risultati dell’IWF mostrano che le celebrità vengono ringiovanite e trasformate in bambini grazie agli strumenti dell’intelligenza artificiale.

Le celebrità invecchiate vengono quindi inserite in scenari abusivi per la gratificazione dei pedofili online.

Vengono presi di mira anche i figli delle celebrità, “nudificando” i giovani per gli utenti dei forum della darknet.

L'IWF afferma che è sempre più difficile distinguere queste immagini dalle vere immagini pedopornografiche.

“Il CSAM AI più convincente è visivamente indistinguibile dal vero CSAM, anche per gli analisti qualificati dell’IWF. La tecnologia text-to-image non potrà che migliorare e porre nuove sfide all’IWF e alle forze dell’ordine”, si legge nel rapporto.

Raccomandazioni del governo

L'IWF, che ha sede in Regno Unito, chiede alle aziende tecnologiche di tutto il mondo di garantire che CSAM sia contrario ai loro accordi sui termini di utilizzo. Vuole anche una migliore formazione per le forze dell’ordine in modo che possano identificare più facilmente questo tipo di immagini.

L'IWF chiede inoltre al governo britannico di rendere l'AI CSAM uno dei principali argomenti di discussione al prossimo AI Summit che si terrà a Bletchley Park il mese prossimo.

Il Regno Unito spera di attirare all’evento attori chiave del mondo degli affari e leader mondiali. Finora, la premier italiana Giorgia Meloni è l'unico leader confermato del G7 previsto a partecipare.

Timestamp:

Di più da MetaNotizie