I deepfake basati sull'intelligenza artificiale rappresentano una minaccia anche per le aziende: ecco perché - Decrypt

I deepfake basati sull'intelligenza artificiale rappresentano una minaccia anche per le aziende: ecco perché: decrittografa

I deepfake basati sull'intelligenza artificiale rappresentano una minaccia anche per le aziende: ecco perché: decrittografa la data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

Mentre i giganti della tecnologia competono per portare l’intelligenza artificiale alle masse e possedere il mercato in espansione, la corsa agli armamenti dell’IA sta alimentando un aumento di video e audio “deepfake”, contenuti che spesso sembrano o sembrano legittimi in modo convincente, ma in realtà sono una falsa dichiarazione fraudolenta. E stanno avendo un impatto anche sulle imprese, secondo un nuovo rapporto.

I deepfake sono creazioni generate dall'intelligenza artificiale come immagini, video e audio manipolati per ingannare le persone. I truffatori utilizzano i deepfake per frode, estorsioneo danneggiare la reputazione. La proliferazione di IA generativa ha reso più facile che mai per i truffatori creare contenuti falsi.

Celebrità e altri personaggi pubblici vengono inseriti in filmati artificiali e talvolta espliciti senza il loro consenso in modi che a volte diventano virali o possono causare panico sui social media. In un rapporto fornito a decrypt, società di contabilità globale KPMG ha scritto che anche il settore imprenditoriale non è immune dalla minaccia del deepfake.

I contenuti deepfake possono essere utilizzati negli attacchi di ingegneria sociale e altri tipi di attacchi informatici mirati alle aziende, ha scritto KPMG, mentre tali contenuti possono anche avere un impatto sulla reputazione delle aziende e dei loro leader. False rappresentazioni di rappresentanti aziendali possono essere utilizzate anche in schemi volti a truffare i clienti o a convincere i dipendenti a fornire informazioni o trasferire denaro ad attori illeciti.

KPMG ha citato un esempio del 2020 di un direttore di filiale di una società di Hong Kong che è stato indotto con l'inganno a trasferire fondi aziendali per un valore di 35 milioni di dollari a truffatori dopo aver creduto che il suo capo fosse al telefono, ordinandogli di farlo. Si trattava invece di una ricreazione clonata dall'intelligenza artificiale della voce del supervisore, il tutto parte di un elaborato piano per truffare denaro dall'azienda.

“Le conseguenze degli attacchi informatici che utilizzano contenuti sintetici – contenuti digitali che sono stati generati o manipolati per scopi nefasti – possono essere vaste, costose e avere una varietà di impatti socioeconomici, tra cui finanziario, reputazionale, di servizio e geopolitico, tra gli altri”, si legge nel rapporto.

Filmati deepfake dell'essere di Donald Trump arrestato all'inizio di quest'anno, Papa Francesco indossare abiti di lusso Balenciaga e Elon Musk la promozione delle truffe crittografiche è diventata virale nell'ultimo anno poiché la tecnologia deepfake è migliorata grazie all'evoluzione degli strumenti di intelligenza artificiale.

"Che si tratti di falsi economici o di deepfake, il modello economico è cambiato in modo significativo a causa dei modelli di intelligenza artificiale generativa", ha scritto KPMG.

Oltre ai personaggi pubblici sopra menzionati, celebrità di spicco le cui sembianze sono state rubate e applicate a filmati falsi includono l'attrice Emma Watson e il musicista Taylor Swift. Ma è il potenziale impatto sulle imprese e sui loro leader, talvolta di spicco, che KPMG lancia l’allarme.

"Come fattore di rischio, i contenuti deepfake non sono solo una preoccupazione per i social media, i siti di incontri e l'industria dell'intrattenimento: ora sono una questione dei consigli di amministrazione", ha affermato KPMG. “Caso in questione, quasi tutti gli intervistati (92%) di un recente sondaggio KPMG sull’intelligenza artificiale generativa condotto su 300 dirigenti di diversi settori e aree geografiche affermano che le loro preoccupazioni sui rischi derivanti dall’implementazione dell’intelligenza artificiale generativa sono da moderatamente ad altamente significative”.

Non sono solo le aziende e le celebrità a dover affrontare l'aumento sia della qualità che del numero di video deepfake su Internet. Anche i governi e le autorità di regolamentazione stanno facendo i conti con il potenziale impatto sulla società e sulle elezioni, mentre i creatori di tali strumenti di intelligenza artificiale stanno valutando il loro potenziale impatto negativo.

La settimana scorsa, la Commissione elettorale federale degli Stati Uniti, anticipando l’uso dei deepfake nelle elezioni del 2024, è andata avanti con un petizione vietare l’uso dell’intelligenza artificiale nelle campagne pubblicitarie.

Se approvata, l’agenzia modificherebbe le attuali normative relative alla falsa dichiarazione fraudolenta dell’“autorità della campagna” e chiarirebbe che il divieto si applica alle pubblicità deliberatamente ingannevoli delle campagne di intelligenza artificiale.

“I regolatori dovrebbero continuare a comprendere e considerare l’impatto delle minacce in evoluzione sulle normative esistenti”, ha dichiarato Matthew Miller, responsabile dei servizi di sicurezza informatica presso KPMG. decrypt. “I requisiti proposti per l’etichettatura e la filigrana dei contenuti generati dall’intelligenza artificiale potrebbero avere un impatto positivo”.

A luglio i ricercatori del MIT proposto aggiungendo modifiche al codice a modelli a larga diffusione per mitigare il rischio di deepfake, aggiungendo piccole modifiche che sono difficili da vedere ma che alla fine cambiano il modo in cui funzionano i modelli, facendoli generare immagini che non sembrano reali. Meta, nel frattempo, di recente ha trattenuto uno strumento di intelligenza artificiale a causa del suo potenziale deepfake.

L’entusiasmo per il potenziale creativo degli strumenti di intelligenza artificiale generativa è stato mitigato dalla consapevolezza che allo stesso modo possono creare opportunità per contenuti dannosi. Alla fine, tra i rapidi miglioramenti di tali strumenti, Miller ha invitato tutti a prestare attenzione al potenziale di contenuti falsi.

“Il pubblico deve mantenere una vigilanza continua quando interagisce attraverso i canali digitali”, ha detto Decrypt. “La consapevolezza della situazione e il buon senso contribuiscono notevolmente a prevenire il verificarsi di un incidente. Se qualcosa non “sembra giusto”, ha un’alta probabilità che si tratti di un’attività dannosa”.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt