Democrazia deepfake: la tecnologia AI complica la sicurezza elettorale

Democrazia deepfake: la tecnologia AI complica la sicurezza elettorale

Democrazia deepfake: la tecnologia AI complica la sicurezza elettorale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Eventi recenti, incluso un deepfake generato dall'intelligenza artificiale (AI). chiamata robotica che impersona il presidente Biden esortando gli elettori del New Hampshire ad astenersi dalle primarie, servono a ricordare che gli attori malintenzionati vedono sempre più le moderne piattaforme di intelligenza artificiale generativa (GenAI) come un’arma potente per prendere di mira le elezioni statunitensi.

Piattaforme come ChatGPT, Gemini di Google (ex Bard) o qualsiasi altro modello di linguaggio di grandi dimensioni (LLM) del Dark Web appositamente creato potrebbero svolgere un ruolo nell'interruzione del processo democratico, con attacchi che comprendono campagne di influenza di massa, trolling automatizzato e proliferazione di contenuti deepfake.

In effetti, il direttore dell'FBI Christopher Wray preoccupazioni recentemente espresse sulla guerra dell'informazione in corso utilizzando deepfake che potrebbero seminare disinformazione durante l'imminente campagna presidenziale, come attori sostenuti dallo Stato tentativo di influenzare gli equilibri geopolitici.

GenAI potrebbe anche automatizzare l’ascesa di “comportamento non autentico coordinato"reti che tentano di sviluppare un pubblico per le loro campagne di disinformazione attraverso fonti di notizie false, profili di social media convincenti e altre strade, con l'obiettivo di seminare discordia e minare la fiducia del pubblico nel processo elettorale.

Influenza elettorale: rischi sostanziali e scenari da incubo

Dal punto di vista di Padraic O'Reilly, responsabile dell'innovazione di CyberSaint, il rischio è “sostanziale” perché la tecnologia si sta evolvendo così rapidamente.

“Si preannuncia interessante e forse anche un po’ allarmante, poiché vediamo nuove varianti di disinformazione che sfruttano la tecnologia deepfake”, afferma.

Nello specifico, afferma O'Reilly, lo “scenario da incubo” è che il microtargeting con contenuti generati dall'intelligenza artificiale prolifererà sulle piattaforme di social media. Questa è una tattica familiare da Scandalo di Cambridge Analytica, dove la società ha raccolto dati sui profili psicologici di 230 milioni di elettori statunitensi, al fine di fornire messaggi altamente personalizzati tramite Facebook agli individui nel tentativo di influenzare le loro convinzioni - e i loro voti. Ma GenAI potrebbe automatizzare questo processo su larga scala e creare contenuti altamente convincenti che avrebbero poche, se non nessuna, caratteristiche “bot” che potrebbero allontanare le persone.

"I dati di targeting rubati [istantanee della personalità di un utente e dei suoi interessi] uniti ai contenuti generati dall'intelligenza artificiale sono un rischio reale", spiega. “Le campagne di disinformazione russe del 2013-2017 suggeriscono cos’altro potrebbe accadere e accadrà, e sappiamo di deepfake generati da cittadini statunitensi [come quello] con Biden, e Elizabeth Warren. "

Il mix di social media e tecnologia deepfake prontamente disponibile potrebbe essere un’arma apocalittica per polarizzare i cittadini statunitensi in un Paese già profondamente diviso, aggiunge.

“La democrazia si basa su certe tradizioni e informazioni condivise, e qui il pericolo è una maggiore balcanizzazione tra i cittadini, che porta a ciò che la ricercatrice di Stanford Renée DiResta ha chiamato “realtà su misura”,” dice O’Reilly, ovvero persone che credono in “fatti alternativi”.

Le piattaforme che gli autori delle minacce utilizzano per seminare divisione saranno probabilmente di scarso aiuto: aggiunge che, ad esempio, la piattaforma di social media X, precedentemente nota come Twitter, ha sminuzzato la sua garanzia di qualità (QA) sui contenuti.

“Le altre piattaforme hanno fornito garanzie standard che affronteranno la disinformazione, ma la tutela della libertà di parola e la mancanza di regolamentazione lasciano ancora il campo aperto ai malintenzionati”, avverte.

L'intelligenza artificiale amplifica i TTP di phishing esistenti

La GenAI viene già utilizzata per creare campagne di phishing più credibili e mirate su larga scala, ma nel contesto della sicurezza elettorale questo fenomeno è ancora più preoccupante, secondo Scott Small, direttore dell'intelligence sulle minacce informatiche presso Tidal Cyber.

“Ci aspettiamo di vedere gli avversari informatici adottare l’intelligenza artificiale generativa per rendere più convincenti gli attacchi di phishing e di ingegneria sociale – le principali forme di attacchi legati alle elezioni in termini di volume costante nel corso di molti anni –, rendendo più probabile che gli obiettivi interagiscano con contenuti dannosi, " lui spiega.

Small afferma che l’adozione dell’intelligenza artificiale riduce anche la barriera all’ingresso per il lancio di tali attacchi, un fattore che probabilmente aumenterà quest’anno il volume delle campagne che tentano di infiltrarsi nelle campagne o di impossessarsi degli account dei candidati per scopi di impersonificazione, tra gli altri potenziali.

“Gli avversari della criminalità e degli stati-nazione adattano regolarmente le esche di phishing e di ingegneria sociale agli eventi attuali e ai temi popolari, e questi attori cercheranno quasi certamente di trarre vantaggio dal boom di contenuti digitali legati alle elezioni distribuiti in generale quest’anno, per cercare di fornire contenuti dannosi. contenuto a utenti ignari", afferma.

Difendersi dalle minacce elettorali dell'intelligenza artificiale

Per difendersi da queste minacce, i funzionari e le campagne elettorali devono essere consapevoli dei rischi legati alla GenAI e di come difendersi da essi.

"I funzionari elettorali e i candidati rilasciano costantemente interviste e conferenze stampa da cui gli autori delle minacce possono trarre spunti per i deepfake basati sull'intelligenza artificiale", afferma James Turgal, vicepresidente del rischio informatico di Optiv. “Pertanto, spetta a loro assicurarsi di avere una persona o un team responsabile di garantire il controllo sui contenuti”.

Devono inoltre assicurarsi che i volontari e i lavoratori siano formati sulle minacce basate sull’intelligenza artificiale come l’ingegneria sociale avanzata, sugli autori delle minacce dietro di loro e su come rispondere ad attività sospette.

A tal fine, il personale dovrebbe partecipare a corsi di formazione video sull’ingegneria sociale e sul deepfake che comprendano informazioni su tutte le forme e vettori di attacco, compresi i tentativi elettronici (e-mail, messaggi di testo e piattaforme di social media), di persona e telefonici.

"Questo è molto importante, soprattutto con i volontari, perché non tutti hanno una buona igiene informatica", afferma Turgal.

Inoltre, i volontari delle campagne elettorali e delle elezioni devono essere formati su come fornire in modo sicuro informazioni online e a entità esterne, compresi i post sui social media, e usare cautela quando lo fanno.

“Gli autori delle minacce informatiche possono raccogliere queste informazioni per adattare le esche socialmente progettate a obiettivi specifici”, avverte.

O'Reilly sostiene una regolamentazione a lungo termine che includa filigrana per deepfake audio e video sarà determinante, notando che il governo federale sta lavorando con i proprietari degli LLM per mettere in atto delle protezioni.

Infatti, la La Federal Communications Commission (FCC) ha appena dichiarato Le chiamate vocali generate dall'intelligenza artificiale vengono considerate "artificiali" ai sensi del Telephone Consumer Protection Act (TCPA), rendendo illegale l'uso della tecnologia di clonazione vocale e fornendo ai procuratori generali statali a livello nazionale nuovi strumenti per combattere tali attività fraudolente.

"L'intelligenza artificiale si sta muovendo così velocemente che esiste il pericolo intrinseco che qualsiasi regola proposta possa diventare inefficace man mano che la tecnologia avanza, mancando potenzialmente l'obiettivo", afferma O'Reilly. “In un certo senso, è il selvaggio West e l’intelligenza artificiale sta arrivando sul mercato con pochissime garanzie”.

Timestamp:

Di più da Lettura oscura