Un'età d'oro dell'IA... o minacce alla sicurezza?

Un'età d'oro dell'IA... o minacce alla sicurezza?

A Golden Age of AI … or Security Threats? PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Siamo nell'età dell'oro dell'intelligenza artificiale? È difficile fare previsioni e probabilmente sconsiderate. Chi vuole prevedere il futuro di una tecnologia così nuova?

Possiamo però dire alcune cose con certezza. Si sta facendo molto per l'applicazione dell'IA ai lavori creativi, dal doppiaggio alle prime bozze di sceneggiature. Ma è probabile che l'intelligenza artificiale sia più utile quando si ha a che fare con il lavoro faticoso. Questa è una buona notizia per gli sviluppatori, se la promessa corrisponde ai primi esperimenti: le prime bozze di codice possono essere facilmente create e pronte per essere modificate e ripetute dagli sviluppatori.

Tuttavia, è importante ricordarlo non tutti i programmatori lavorano per un'azienda legittima. Just as cybersecurity threat actors have emulated their targets in becoming more businesslike, they’re also adopting new technologies and techniques. We can expect AI to help in the development of malware and other threats in the coming years, whether we’re entering a golden age of AI or not.

Codice di redazione e truffe

Una tendenza osservata negli ultimi anni è l'aumento delle offerte "as-a-service". I primi hacker erano armeggiatori e malfattori, ingannavano i sistemi telefonici o causavano il caos principalmente come esercizio di divertimento. Questo è radicalmente cambiato. Gli attori delle minacce sono professionisti e spesso vendono i loro prodotti affinché altri li utilizzino.

L'intelligenza artificiale si adatterà molto bene a questo modo di lavorare. In grado di creare codice per affrontare problemi specifici, l'intelligenza artificiale può modificare il codice per colpire le vulnerabilità o prendere il codice esistente e modificarlo, quindi non è così facilmente rilevabile dalle misure di sicurezza che cercano modelli specifici.

Ma le possibilità di uso improprio dell'IA non si fermano qui. Molte e-mail di phishing vengono rilevate da efficaci strumenti di filtraggio e finiscono nelle cartelle della posta indesiderata. Quelle che arrivano alla posta in arrivo sono spesso truffe molto evidenti, scritte così male da essere al limite dell'incomprensibile. Ma l'intelligenza artificiale potrebbe rompere questo schema, creando migliaia di e-mail plausibili che possono eludere il rilevamento ed essere scritte abbastanza bene da ingannare sia i filtri che gli utenti finali.

Anche lo spear-phishing, la forma più mirata di questo attacco, potrebbe essere rivoluzionato da questa tecnologia. Certo, è facile ignorare un'e-mail del tuo capo che ti chiede di trasferire contanti o acquistare urgentemente buoni regalo: la formazione sulla sicurezza informatica aiuta i dipendenti a evitare questo tipo di truffa. Ma che dire di una telefonata finta o di una chat video? L'intelligenza artificiale ha il potenziale per trasformare apparizioni e podcast in trasmissioni e trasformarli in un simulacro convincente, qualcosa di molto più difficile da ignorare.

Contrattaccare contro gli attacchi informatici dell'IA

Esistono due modi principali per contrastare i vantaggi che l'IA conferirà al nemico: una migliore intelligenza artificiale e una migliore formazione — Ed entrambi saranno necessari.

L'avvento di questa nuova generazione di IA ha dato il via a una nuova corsa agli armamenti. Poiché i criminali informatici lo utilizzano per evolvere i loro attacchi, anche i team di sicurezza dovranno utilizzarlo per evolvere le loro difese.

Senza intelligenza artificiale, le difese si affidano a persone oberate di lavoro e al monitoraggio di determinati schemi preprogrammati per prevenire gli attacchi. Gli strumenti difensivi IA saranno in grado di prevedere i vettori di attacco e individuare le aree sensibili della rete e dei sistemi. Saranno anche in grado di analizzare il codice dannoso, consentendo una migliore comprensione di come funzionano i nuovi attacchi e di come possono essere prevenuti.

L'intelligenza artificiale potrebbe anche funzionare, in caso di emergenza, come arresto di emergenza, disabilitando la rete al rilevamento di una violazione e bloccando l'intero sistema. Sebbene non sia l'ideale dal punto di vista della continuità aziendale, questo potrebbe essere molto meno dannoso di una violazione dei dati.

Ma combattere l'IA con l'IA non è l'unica risposta. Abbiamo bisogno anche dell'intelligenza umana. Non importa quanto intelligente e mirato, la migliore difesa contro un attacco di phishing è un dipendente o un cliente che sa cosa cercare ed è abbastanza sospettoso da non abboccare. L'implementazione di solide policy di sicurezza e di best practice per l'igiene informatica rimarranno fondamentali per difendersi dagli attacchi.

Ciò significa che l'addestramento dovrà essere aggiornato per includere i segnali di un attacco di IA... qualunque essi siano. La formazione dovrà evolversi con l'intelligenza artificiale: un singolo corso di formazione ogni pochi anni non sarà più sufficiente quando tale formazione sarà rapidamente obsoleta.

Sebbene i possibili segni di un attacco informatico basato sull'intelligenza artificiale stiano cambiando rapidamente, in generale gli attacchi sono:

  • Veloce e scalabile, sfruttando molteplici vulnerabilità in un breve lasso di tempo.
  • Adattivo ed evasivo, cambiando tattiche e tecniche per evitare il rilevamento e la risposta.
  • Mirato e personalizzato, utilizzando l'intelligenza artificiale per creare email di phishing convincenti o campagne di ingegneria sociale.
  • Ingannevole e manipolatore, utilizzando l'intelligenza artificiale per creare contenuti falsi o alterati come deepfake, clonazione vocale o generazione di testo.
  • Furtivo e persistente, nascondendosi nell'infrastruttura di rete per lungo tempo senza essere notato.

Questi segni non sono esaustivi e alcuni attacchi guidati dall'IA potrebbero non mostrarli tutti. Tuttavia, indicano il livello di minaccia che l'IA rappresenta per la sicurezza informatica.

Per combattere efficacemente gli attacchi informatici guidati dall'intelligenza artificiale, le aziende devono andare oltre i singoli malintenzionati e prepararsi ad attacchi coordinati da parte di attori sponsorizzati dallo stato o organizzazioni criminali che potrebbero utilizzare l'intelligenza artificiale per lanciare campagne sofisticate utilizzando un approccio basato sul rischio. Dovrebbero anche avere un strategia proattiva che include regolari controlli di sicurezza, backup, crittografia e piani di risposta agli incidenti. Ciò si ottiene più facilmente ottenendo una nota certificazione di sicurezza come PCI-DSS.

Infine, è imperativo che le organizzazioni migliorino la sicurezza informatica dei propri sistemi di intelligenza artificiale garantendone l'integrità, la riservatezza e la disponibilità e mitigando i rischi di attacchi avversari, avvelenamento dei dati e furto di modelli.

Queste strategie aiuteranno a proteggere le aziende, ma non dovrebbero essere autonome: la sicurezza dovrebbe essere collaborativa. Collaborando con altre organizzazioni, ricercatori e autorità per condividere informazioni, best practice e fallimenti da cui si può imparare, le aziende saranno meglio preparate per la nuova ondata di minacce alla sicurezza dell'IA.

L'intelligenza artificiale è sia una nuova minaccia che una continuazione di minacce precedenti. Le aziende dovranno evolvere il modo in cui affrontano le minacce informatiche man mano che queste minacce diventano più sofisticate e più numerose, ma molti dei fondamenti rimangono gli stessi. Ottenere questi risultati corretti rimane fondamentale. I team di sicurezza non hanno bisogno di allontanarsi dalle vecchie idee, ma basarsi su di esse per mantenere le loro attività al sicuro.

Timestamp:

Di più da Lettura oscura