Skynet Ehi? Cosa aspettarsi dai rischi per la sicurezza legati all’intelligenza artificiale di prossima generazione

Skynet Ehi? Cosa aspettarsi dai rischi per la sicurezza legati all’intelligenza artificiale di prossima generazione

Skynet Ehi? Cosa aspettarsi dai rischi per la sicurezza dell'intelligenza artificiale di nuova generazione PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Poiché l'innovazione nel campo dell'intelligenza artificiale (AI) continua a ritmo sostenuto, il 2024 sarà un momento cruciale per le organizzazioni e gli organi di governo per stabilire standard di sicurezza, protocolli e altri guardrail per impedire all'IA di superarli, avvertono gli esperti di sicurezza.

I modelli linguistici di grandi dimensioni (LLM), alimentati da algoritmi sofisticati e enormi set di dati, dimostrano una notevole comprensione del linguaggio e capacità di conversazione simili a quelle umane. Una delle piattaforme più sofisticate fino ad oggi è GPT-4 di OpenAI, che vanta capacità avanzate di ragionamento e risoluzione dei problemi e alimenta il bot ChatGPT dell’azienda. E la società, in collaborazione con Microsoft, ha iniziato a lavorare su GPT-5, come ha affermato il CEO Sam Altman andrà molto oltre – al punto di possedere una “superintelligenza”.

Questi modelli rappresentano un enorme potenziale per significativi guadagni di produttività ed efficienza per le organizzazioni, ma gli esperti concordano sul fatto che è giunto il momento per il settore nel suo insieme per affrontare i rischi inerenti alla sicurezza poste dal loro sviluppo e diffusione. Infatti, recente ricerca di Writerbuddy AI, che offre uno strumento di scrittura di contenuti basato sull'intelligenza artificiale, ha scoperto che ChatGPT ha già avuto 14 miliardi di visite e conteggi.

Mentre le organizzazioni marciano verso il progresso nell’intelligenza artificiale, “dovrebbe essere accompagnato da rigorose considerazioni etiche e valutazioni del rischio”, afferma Gal Ringel, CEO della società di privacy e sicurezza MineOS basata sull’intelligenza artificiale.

L'intelligenza artificiale è una minaccia esistenziale?

Le preoccupazioni sulla sicurezza della prossima generazione di intelligenza artificiale hanno iniziato a diffondersi a marzo, con una lettera aperta firmata da quasi 34,000 esperti di tecnologia che chiedevano di fermare lo sviluppo di sistemi di intelligenza artificiale generativa più potenti di quelli GPT-4 di OpenAI. La lettera citava i “profondi rischi” per la società che la tecnologia rappresenta e la “corsa fuori controllo dei laboratori di intelligenza artificiale per sviluppare e implementare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – può comprendere, prevedere o controllo affidabile.”

Nonostante queste paure distopiche, la maggior parte degli esperti di sicurezza non è così preoccupata per uno scenario apocalittico in cui le macchine diventeranno più intelligenti degli esseri umani e conquisteranno il mondo.

“La lettera aperta ha evidenziato valide preoccupazioni circa il rapido progresso e le potenziali applicazioni dell’intelligenza artificiale in un senso ampio, ‘è un bene per l’umanità’”, afferma Matt Wilson, direttore dell’ingegneria delle vendite presso la società di sicurezza informatica Netrix. “Sebbene impressionanti in alcuni scenari, le versioni pubbliche degli strumenti di intelligenza artificiale non sembrano poi così minacciose”.

Ciò che preoccupa è il fatto che i progressi e l’adozione dell’IA si stanno muovendo troppo rapidamente perché i rischi possano essere gestiti adeguatamente, notano i ricercatori. “Non possiamo rimettere il coperchio sul vaso di Pandora”, osserva Patrick Harr, CEO del fornitore di sicurezza AI SlashNext.

Inoltre, il semplice “tentativo di fermare il tasso di innovazione nello spazio non aiuterà a mitigare” i rischi che presenta, che devono essere affrontati separatamente, osserva Marcus Fowler, CEO della società di sicurezza AI DarkTrace Federal. Ciò non significa che lo sviluppo dell’intelligenza artificiale debba continuare senza controllo, afferma. Al contrario, il tasso di valutazione del rischio e di attuazione di garanzie adeguate dovrebbe corrispondere al ritmo con cui gli LLM vengono formati e sviluppati.

“La tecnologia dell’intelligenza artificiale si sta evolvendo rapidamente, quindi i governi e le organizzazioni che utilizzano l’intelligenza artificiale devono anche accelerare le discussioni sulla sicurezza dell’intelligenza artificiale”, spiega Fowler.

Rischi dell’intelligenza artificiale generativa

Esistono diversi rischi ampiamente riconosciuti per l’intelligenza artificiale generativa che richiedono considerazione e che non potranno che peggiorare man mano che le future generazioni della tecnologia diventeranno più intelligenti. Fortunatamente per gli esseri umani, nessuno di essi finora propone uno scenario apocalittico da fantascienza in cui l’intelligenza artificiale cospira per distruggere i suoi creatori.

Includono invece minacce molto più familiari, come fughe di dati, potenzialmente di informazioni aziendali sensibili; uso improprio per attività dannose; e risultati imprecisi che possono fuorviare o confondere gli utenti, con conseguenti conseguenze aziendali negative.

Poiché gli LLM richiedono l'accesso a grandi quantità di dati per fornire risultati accurati e contestualmente rilevanti, le informazioni sensibili possono essere inavvertitamente rivelate o utilizzate in modo improprio.

“Il rischio principale è che i dipendenti lo alimentino con informazioni aziendali sensibili quando gli si chiede di scrivere un piano o di riformulare e-mail o presentazioni aziendali contenenti informazioni proprietarie dell’azienda”, osserva Ringel.

Dal punto di vista degli attacchi informatici, gli autori delle minacce hanno già trovato una miriade di modi per utilizzare come arma ChatGPT e altri sistemi di intelligenza artificiale. Un modo è stato quello di utilizzare i modelli per creare sofisticati attacchi di posta elettronica aziendale (BEC) e altri attacchi di phishing, che richiedono la creazione di messaggi personalizzati di ingegneria sociale progettati per avere successo.

"Con il malware, ChatGPT consente ai criminali informatici di apportare infinite variazioni al codice per rimanere un passo avanti rispetto ai motori di rilevamento del malware", afferma Harr.

Le allucinazioni legate all'intelligenza artificiale rappresentano anche una significativa minaccia alla sicurezza e consentono agli autori malintenzionati di armare la tecnologia basata su LLM come ChatGPT in un modo unico. Un'allucinazione dell'IA è una risposta plausibile dell'IA che è insufficiente, parziale o completamente non vera. “Risposte fittizie o di altro tipo indesiderate possono portare le organizzazioni a prendere decisioni, processi e comunicazioni fuorvianti errati”, avverte Avivah Litan, vicepresidente di Gartner.

Gli autori delle minacce possono anche utilizzare queste allucinazioni per avvelenare gli LLM e "generare disinformazione specifica in risposta a una domanda", osserva Michael Rinehart, vicepresidente dell'intelligenza artificiale presso il fornitore di sicurezza dei dati Securiti. "Ciò è estensibile alla generazione di codice sorgente vulnerabile e, possibilmente, a modelli di chat in grado di indirizzare gli utenti di un sito verso azioni non sicure."

Gli aggressori possono arrivare addirittura a farlo pubblicare versioni dannose di pacchetti software che un LLM potrebbe consigliare a uno sviluppatore di software, ritenendo che sia una soluzione legittima a un problema. In questo modo, gli aggressori possono ulteriormente utilizzare l’intelligenza artificiale come arma per sferrare attacchi alla catena di approvvigionamento.

La via da seguire

La gestione di questi rischi richiederà un’azione misurata e collettiva prima che l’innovazione dell’intelligenza artificiale superi la capacità del settore di controllarla, notano gli esperti. Ma hanno anche idee su come affrontare il problema dell’intelligenza artificiale.

Harr crede in un “combatti l'IA con A", in cui "i progressi nelle soluzioni di sicurezza e nelle strategie per contrastare i rischi alimentati dall'intelligenza artificiale devono svilupparsi a un ritmo uguale o maggiore.

“La protezione della sicurezza informatica deve sfruttare l’intelligenza artificiale per combattere con successo le minacce informatiche utilizzando la tecnologia dell’intelligenza artificiale”, aggiunge. “In confronto, la tecnologia di sicurezza legacy non ha alcuna possibilità contro questi attacchi”.

Tuttavia, le organizzazioni dovrebbero anche adottare un approccio misurato all’adozione dell’intelligenza artificiale, incluso Soluzioni di sicurezza basate sull'intelligenza artificiale – per timore che introducano ulteriori rischi nel loro ambiente, avverte Wilson di Netrix.

“Comprendi cos’è e cosa non è l’intelligenza artificiale”, consiglia. “Sfida i fornitori che affermano di utilizzare l’intelligenza artificiale per descrivere cosa fa, come migliora la loro soluzione e perché è importante per la tua organizzazione”.

Rinehart di Securiti offre un approccio a due livelli per introdurre gradualmente l’intelligenza artificiale in un ambiente, implementando soluzioni mirate e quindi mettendo in atto dei guardrail immediatamente prima di esporre l’organizzazione a rischi inutili.

“Adottare innanzitutto modelli specifici dell’applicazione, potenzialmente arricchiti da basi di conoscenza, personalizzati per fornire valore in casi d’uso specifici”, afferma. “Quindi… implementa un sistema di monitoraggio per salvaguardare questi modelli esaminando i messaggi da e verso di loro per questioni di privacy e sicurezza”.

Gli esperti raccomandano inoltre di definire policy e procedure di sicurezza relative all’intelligenza artificiale prima che venga implementata, anziché come ripensamento per mitigare i rischi. Possono anche istituire un responsabile del rischio AI dedicato o una task force per supervisionare la conformità.

Al di fuori dell’impresa, anche l’industria nel suo insieme deve adottare misure per stabilire standard e pratiche di sicurezza sull’intelligenza artificiale che tutti coloro che sviluppano e utilizzano la tecnologia possono adottare – qualcosa che richiederà un’azione collettiva da parte sia del settore pubblico che di quello privato su scala globale , afferma Fowler di DarkTrace Federal.

Lui cita linee guida per la realizzazione di sistemi di IA sicuri pubblicato in collaborazione dalla Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti e dal National Cyber ​​Security Center (NCSC) del Regno Unito come esempio del tipo di sforzi che dovrebbero accompagnare la continua evoluzione dell’intelligenza artificiale.

“In sostanza”, afferma Rinehart di Securiti, “l’anno 2024 vedrà un rapido adattamento sia della sicurezza tradizionale che delle tecniche di intelligenza artificiale all’avanguardia verso la salvaguardia degli utenti e dei dati in questa era emergente dell’intelligenza artificiale generativa”.

Timestamp:

Di più da Lettura oscura