Come individuare i deepfake AI sui social media

Come individuare i deepfake AI sui social media

Come individuare i deepfake AI sui social media PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Un video pubblicato la scorsa settimana sulla piattaforma di social media cinese Weibo mostra la pop star americana Taylor Swift che parla fluentemente il mandarino. Solo che nella clip non era il cantante 33enne. Si trattava di un video deepfake generato da uno strumento di intelligenza artificiale della start-up cinese HeyGen.

Dal 21 ottobre, quando è apparso per la prima volta il deepfake di Swift condiviso, il video ha raccolto più di sei milioni di visualizzazioni. Ma ha anche innescato un dibattito sulle potenziali insidie ​​che si presentano man mano che l’intelligenza artificiale diventa più avanzata, rendendo difficile distinguere tra identità o contenuti reali e falsi.

I deepfake, ovvero immagini o video realistici ma falsi utilizzati per impersonare qualcun altro, inclusa la sua voce, possono essere utilizzati per creare false identità digitali, qualcosa che i criminali informatici potrebbero sfruttare per commettere frodi. Le immagini e i video appaiono e parlano esattamente come la persona presa di mira.

A maggio, ad esempio, un uomo d'affari cinese ha perso 4.3 milioni di yuan [$ 612,000] dopo che un truffatore ha utilizzato l'intelligenza artificiale per lo scambio di volti per impersonare il suo amico. Non c'è stata alcuna perdita di denaro nel deepfake di Taylor Swift, ma ecco a cosa prestare attenzione per evitare di essere truffati sui social media.

Verifica le sponsorizzazioni delle celebrità AI

I truffatori utilizzano in genere i deepfake IA di persone fidate per attirare le loro vittime. Negli ultimi mesi sono emerse innumerevoli celebrità false basate sull'intelligenza artificiale per ingannare le persone con false sponsorizzazioni. Versioni false di icone come Elon Musk e Beyonce sono prese di mira per promuovere marchi falsi.

A quanto pare, molti annunci falsi si posizionano più in alto nei risultati di ricerca di Google, probabilmente perché l'azienda non fa abbastanza per filtrare i contenuti fraudolenti.

Tuttavia, nell’era dei contenuti falsi generati dall’intelligenza artificiale, è fondamentale avvicinarsi ai video troppo belli per essere veri con un occhio critico. Affermazioni straordinarie richiedono prove straordinarie. Se ti imbatti in video virali che sembrano sensazionali, prenditi del tempo per verificarne l'autenticità e le fonti.

"Se desideri un consiglio su un prodotto o un servizio, guarda le recensioni o trova un esperto esperto e in grado di dimostrarlo", afferma Kim Komando, esperto di tecnologia di consumo e conduttore radiofonico.

"Un altro passo intelligente: cercare su Google il prodotto e l'attore nell'annuncio, insieme alla parola 'recensione'. Se qualcuno viene pagato per sostenere un prodotto, non c'è solo un annuncio casuale che fluttua sui social media", ha aggiunto in un articolo pubblicato dal New York Post.

Leggi anche: Taylor Swift, Emma Watson e altri presi di mira come ondate di pornografia artificiale

Presta attenzione ai dettagli

La tecnologia Deepfake è particolarmente spaventosa perché è così realistica. Strumenti di intelligenza artificiale come Diffusione stabile può manipolare voci e movimenti della bocca, rendendo facile per le persone credere che una registrazione video o audio sia autentica.

Ricorda l'intelligenza artificiale di Ghostwriter La canzone di Drake e The Weeknd, che ha indotto milioni di persone, compresi i servizi di streaming musicale, a pensare che fosse una nuova uscita? Per individuare un deepfake, Alex Kim, co-fondatore e CEO dell'acceleratore di e-commerce Rice, basato sull'intelligenza artificiale, suggerisce di:

“Presta attenzione a eventuali incongruenze insolite nel video che stai guardando. I creatori di contenuti che utilizzano i deepfake di solito cercano di risparmiare tempo, quindi la messa a punto dei dettagli non è qualcosa su cui investiranno tempo”, ha detto Kim a MetaNews.

"Ciò significa che eventuali espressioni facciali non corrispondenti, movimenti innaturali, strani artefatti, mancata corrispondenza della voce o sincronizzazione labiale saranno probabilmente presenti in un video deepfake", ha detto Kim, aggiungendo:

"Presta particolare attenzione agli occhi, poiché i deepfake lottano maggiormente con questi."

Il caso dell’uomo d’affari cinese ricorda che la tecnologia deepfake è uno strumento potente che può essere utilizzato nel bene e nel male. Le autorità di regolamentazione hanno iniziato a prestare maggiore attenzione ai pericoli dell’intelligenza artificiale da quando OpenAI ha lanciato il suo chatbot virale ChatGPT a novembre, innescando una corsa globale all’intelligenza artificiale.

Come già MetaNews segnalati, gli esperti suggeriscono di sviluppare nuove tecnologie in grado di rilevare e prevenire l'uso di identità false. Ciò potrebbe includere l’uso di dati biometrici, come il riconoscimento facciale o la scansione delle impronte digitali, per verificare l’identità degli utenti online.

Controlla lo sfondo per trovare indizi

Mentre alcune app utilizzano filigrane per identificare i contenuti generati dall’intelligenza artificiale, non è così ovvio con gli altri. Secondo Alex Kim, gli utenti dovranno scansionare lo sfondo di immagini o video per trovare indizi sul materiale deepfake dell'intelligenza artificiale. Rice.win CEO.

"Se lo sfondo si muove in modo innaturale o l'illuminazione non corrisponde alle ombre in primo piano, probabilmente si tratta di un deepfake", ha detto Kim. "Dettagli come la trama dei materiali o la loro mancanza sono altri segni."

“Cerca pixel o sfocature dove non dovrebbero essercene, soprattutto se si verificano su un soggetto umano. Dettagli naturali come l’attaccatura dei capelli, le orecchie, il naso o i lineamenti del viso sono difficili da realizzare in un deepfake, almeno in modo convincente”.

La tecnologia dell’intelligenza artificiale, che per la maggior parte rimane gratuita e facilmente accessibile, viene utilizzata in molti modi da soggetti malintenzionati. Immagini di celebrità femminili di alto profilo, tra cui Taylor Swift ed Emma Watson, sono state manipolate utilizzando l'intelligenza artificiale per creare deepfake contenuto pornografico.

Un nuovo strumento di intelligenza artificiale del Massachusetts Institute of Technology (MIT) negli Stati Uniti promette di frenare i deepfake. Le persone possono usare Fotoguardia apportare "piccole modifiche invisibili per mantenere le [loro] immagini al sicuro da deepfake e modifiche sgradevoli: un promettente standard di riferimento nella sicurezza online".

Alex Kim ha detto a MetaNews che il modo più ovvio e comune per identificare i video falsi di intelligenza artificiale sui social media è considerare i canali su cui sono ospitati.

"Ti consigliamo di controllare quanto il canale ha pubblicato ultimamente e se ci sono stati grandi picchi o impennate nella creazione di contenuti", ha detto Kim. "Se c'è un forte picco nei video pubblicati che sembrano fuori luogo, di bassa qualità o strani, è un segno abbastanza sicuro che il creatore sta utilizzando deepfake."

Timestamp:

Di più da MetaNotizie