Il confine tra la creazione reale e quella dell'intelligenza artificiale è troppo sottile per l'occhio

Il confine tra la creazione reale e quella dell'intelligenza artificiale è troppo sottile per l'occhio

Il confine tra creazione reale e creazione dell'intelligenza artificiale è troppo sottile per l'occhio PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Mentre gli sviluppatori di IA generativa continuano a perfezionare i loro modelli, diventa sempre più difficile distinguere tra immagini reali e creazioni di IA, rivelano i ricercatori.

Uno studio condotto dai ricercatori dell' Università di Waterloo ha stabilito che le persone hanno difficoltà a capire l’immagine di una persona reale e quella di una persona generata dall’intelligenza artificiale.

Sotto la soglia prevista

Nello svolgimento dello studio, i ricercatori dell'Università di Waterloo hanno fornito 20 immagini senza etichetta a 260 partecipanti. Metà delle immagini erano di persone reali prese da Google Immagini mentre l'altra metà era generata dall'intelligenza artificiale utilizzando strumenti come Dall-E e Diffusione stabile.

Ai partecipanti è stato quindi chiesto di etichettare le immagini, se fossero reali o generate dall'intelligenza artificiale, giustificando le loro risposte.

Sebbene il 61% dei partecipanti fosse in grado di distinguere tra immagini reali e immagini generate dall’intelligenza artificiale, questa percentuale era ancora molto al di sotto della soglia prevista dell’85%.

Mentre esaminavano le immagini, i partecipanti hanno prestato attenzione a dettagli come occhi, dita, denti e altri indicatori che indicavano quando cercavano immagini create dall'intelligenza artificiale, ma "le loro valutazioni non erano sempre corrette".

“Le persone non sono così abili nel fare distinzioni come pensano di essere” disse l'autore principale dello studio Andrea Pocol, che è anche dottorando in informatica presso l'università.

Mentre gli utenti di Internet possono guardare le immagini di sfuggita, i ricercatori di Waterloo hanno affermato di aver consentito ai partecipanti di prendersi il loro tempo per analizzare le immagini.

"Le persone che stanno semplicemente cercando di capire il destino o non hanno tempo non coglieranno questi segnali", ha detto Pocol.

Leggi anche: L’amministratore delegato di Leonardo evidenzia la stupidità degli utenti rispetto alle minacce dell’intelligenza artificiale a Davos

Abusare della tecnologia

Vostro studio, intitolato “Seeing Is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media”, pubblicato sulla rivista Advances in Computer Graphics, evidenzia anche i rischi associati ai progressi nella tecnologia dell’intelligenza artificiale generativa. .

I ricercatori hanno anche notato con preoccupazione la velocità con cui la tecnologia dell’intelligenza artificiale generativa sta cambiando rapidamente, diventando ogni giorno più sofisticata. La ricerca accademica e la legislazione non riescono a tenere il passo con gli sviluppi dell’industria generativa.

Pocol ha affermato che le immagini basate sull'intelligenza artificiale stanno diventando sempre più reali, rendendo difficile per alcune persone distinguere facilmente tra immagini reali e generate dall'intelligenza artificiale. Ciò, ha affermato Pocol, sta creando un terreno fertile per i malintenzionati che sfruttano la tecnologia per diffondere malizia e perpetuare la disinformazione o per ingannare le persone.

"La disinformazione non è una novità, ma i suoi strumenti sono cambiati ed evoluti costantemente", ha affermato Pocol.

“Potrebbe arrivare a un punto in cui le persone, non importa quanto siano addestrate, avranno ancora difficoltà a distinguere le immagini reali da quelle false. Ecco perché dobbiamo sviluppare strumenti per identificare e contrastare questo fenomeno. È come una nuova corsa agli armamenti dell’IA”.

I ricercatori hanno anche riconosciuto le sfide che la tecnologia pone soprattutto quando si tratta di diffusione dei deepfake.

La tecnologia nelle mani sbagliate

Considerate le difficoltà incontrate dalla gente comune nel distinguere tra immagini vere e false, crescono i timori di un aumento della diffusione dei deepfake. Gli esperti hanno avvertito che i malintenzionati trarranno vantaggio dalla tecnologia dell’intelligenza artificiale generativa per diffondere falsità elettorali nei loro tentativi di fuorviare gli elettori.

I Centro per contrastare l'odio digitale (CCDH), un’organizzazione no-profit che monitora l’incitamento all’odio online avvertito nel loro rapporto affermano che i generatori di immagini basati sull’intelligenza artificiale stanno peggiorando la disinformazione sulle elezioni del 2024.

"La possibilità che tali immagini generate dall'intelligenza artificiale servano come 'prove fotografiche' potrebbe esacerbare la diffusione di false affermazioni, ponendo una sfida significativa per preservare l'integrità delle elezioni", hanno affermato i ricercatori del CCDH nel loro rapporto.

Ciò, tuttavia, avviene nel contesto di un annuncio che include circa 20 grandi aziende tecnologiche OpenAI, Microsoft e Stabilità AI ha firmato un accordo lavorare insieme per impedire che i contenuti ingannevoli dell’intelligenza artificiale “interferiscano con le elezioni che si terranno a livello globale quest’anno.

Timestamp:

Di più da MetaNotizie