La criminalità informatica basata sull'intelligenza artificiale esploderà nel 2024: CrowdStrike Executive - Decrypt

La criminalità informatica basata sull'intelligenza artificiale esploderà nel 2024: CrowdStrike Executive – Decrypt

La criminalità informatica basata sull'intelligenza artificiale esploderà nel 2024: CrowdStrike Executive: decrittografa la data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

Il nuovo anno porta con sé nuove minacce alla sicurezza informatica alimentate dall’intelligenza artificiale, ha detto Shawn Henry, Chief Security Officer di CrowdStrike Le mattine della CBS il Martedì.

"Penso che questa sia una grande preoccupazione per tutti", ha detto Henry.

"L'intelligenza artificiale ha davvero messo questo strumento tremendamente potente nelle mani della persona media e li ha resi incredibilmente più capaci", ha spiegato. “Quindi gli avversari stanno utilizzando l’intelligenza artificiale, questa nuova innovazione, per superare diverse capacità di sicurezza informatica e ottenere l’accesso alle reti aziendali”.

Henry ha sottolineato l’uso dell’intelligenza artificiale nella penetrazione delle reti aziendali, nonché nella diffusione di disinformazione online utilizzando deepfake video, audio e di testo sempre più sofisticati.

Henry ha sottolineato la necessità di guardare alla fonte delle informazioni e di non prendere mai qualcosa pubblicato online per valore nominale.

"Devi verificare da dove viene", ha detto Henry. "Chi racconta la storia, qual è la sua motivazione e puoi verificarla attraverso più fonti?"

"È incredibilmente difficile perché le persone, quando usano i video, hanno 15 o 20 secondi, non hanno il tempo o spesso non si sforzano di procurarsi quei dati, e questo è un problema."

Sottolineando che il 2024 è un anno elettorale per diversi paesi, tra cui Stati Uniti, Messico, Sudafrica, Taiwan e India, Henry ha affermato che la democrazia stessa è in ballottaggio, con i criminali informatici che cercano di trarre vantaggio dal caos politico sfruttando l’intelligenza artificiale.

“Abbiamo visto avversari stranieri prendere di mira le elezioni americane per molti anni, non solo nel 2016. [La Cina] ci ha preso di mira nel 2008”, ha detto Henry. “Nel corso degli anni abbiamo visto Russia, Cina e Iran coinvolti in questo tipo di disinformazione; lo useranno assolutamente di nuovo qui nel 2024. “

“Le persone devono capire da dove provengono le informazioni”, ha detto Henry. "Perché ci sono persone là fuori che hanno intenti nefasti e creano enormi problemi."

Una preoccupazione particolare nelle prossime elezioni americane del 2024 è la sicurezza delle macchine per il voto. Alla domanda se l’intelligenza artificiale potesse essere utilizzata per hackerare le macchine per il voto, Henry si è detto ottimista sul fatto che la natura decentralizzata del sistema di voto statunitense avrebbe impedito che ciò accadesse.

“Penso che il nostro sistema negli Stati Uniti sia molto decentralizzato”, ha detto Henry. “Ci sono singole tasche che potrebbero essere prese di mira, come le liste di registrazione degli elettori, ecc., [ma] non penso che un problema di tabulazione degli elettori su larga scala possa avere un impatto sulle elezioni, non penso che sia un grosso problema. "

Henry ha sottolineato la capacità dell’intelligenza artificiale di fornire ai criminali informatici non così tecnici l’accesso ad armi tecniche.

“L’intelligenza artificiale fornisce uno strumento molto efficace nelle mani di persone che potrebbero non avere competenze tecniche elevate”, ha affermato Henry. "Possono scrivere codice, creare software dannoso, e-mail di phishing, ecc."

Nel mese di ottobre, il RAND Corporation ha pubblicato un rapporto che suggerisce che l’intelligenza artificiale generativa potrebbe essere jailbroken per aiutare i terroristi a pianificare attacchi biologici.

"In genere, se un utente malintenzionato è esplicito [nel suo intento], riceverai una risposta del tipo 'Mi dispiace, non posso aiutarti in questo,'" il coautore e ingegnere senior di RAND Corporation Christopher Mouton ha detto decrypt in un'intervista. "Quindi in genere devi utilizzare una di queste tecniche di jailbreak o di prompt engineering per ottenere un livello sotto quei guardrail."

In un rapporto separato, società di sicurezza informatica Barra Avanti ha riferito che gli attacchi di phishing via email sono aumentati del 1265% dall’inizio del 2023.

I politici globali hanno trascorso la maggior parte del 2023 alla ricerca di modi per regolamentare e reprimere l’uso improprio di IA generativa, tra cui il Segretario generale delle Nazioni Unite, che ha lanciato l'allarme sull'uso dei deepfake generati dall'intelligenza artificiale in zone di conflitto.

Ad agosto, la Commissione elettorale federale degli Stati Uniti ha fatto un passo avanti: a petizione vietare l’uso dell’intelligenza artificiale negli annunci elettorali che portano alla stagione elettorale del 2024.

I giganti della tecnologia Microsoft e Meta hanno annunciato nuove novità Termini e Condizioni mirato a frenare la disinformazione politica alimentata dall’intelligenza artificiale.

“Nel 2024 il mondo potrebbe vedere diversi stati-nazione autoritari cercare di interferire nei processi elettorali”, ha affermato Microsoft. “E potrebbero combinare le tecniche tradizionali con l’intelligenza artificiale e altre nuove tecnologie per minacciare l’integrità dei sistemi elettorali”.

Anche Papa Francesco, che è stato oggetto di deepfake virali generati dall'intelligenza artificiale, ha, in diverse occasioni, affrontato l'intelligenza artificiale nei sermoni.

“Dobbiamo essere consapevoli delle rapide trasformazioni in atto e gestirle in modo da salvaguardare i diritti umani fondamentali e rispettare le istituzioni e le leggi che promuovono lo sviluppo umano integrale”, ha affermato Papa Francesco. “L’intelligenza artificiale dovrebbe servire il nostro miglior potenziale umano e le nostre più alte aspirazioni, non competere con esse”.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt