Proteggere l'intelligenza artificiale: cosa dovresti sapere

Proteggere l'intelligenza artificiale: cosa dovresti sapere

Proteggere l'intelligenza artificiale: cosa dovresti sapere PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Gli strumenti di machine learning fanno parte da anni dei flussi di lavoro aziendali e IT standard, ma la rivoluzione in atto dell’intelligenza artificiale generativa sta determinando un rapido aumento sia dell’adozione che della consapevolezza di questi strumenti. Sebbene l’intelligenza artificiale offra vantaggi in termini di efficienza in vari settori, questi potenti strumenti emergenti richiedono considerazioni di sicurezza speciali.

In cosa è diversa la protezione dell’intelligenza artificiale?

L’attuale rivoluzione dell’IA potrebbe essere nuova, ma i team di sicurezza di Google e altrove lavorano sulla sicurezza dell’IA da molti anni, se non decenni. In molti modi, i principi fondamentali per proteggere gli strumenti di intelligenza artificiale sono gli stessi delle migliori pratiche generali in materia di cibersicurezza. La necessità di gestire l’accesso e proteggere i dati attraverso tecniche fondamentali come la crittografia e l’identità forte non cambia solo perché è coinvolta l’intelligenza artificiale.

Un’area in cui la protezione dell’IA è diversa riguarda gli aspetti della sicurezza dei dati. Gli strumenti di intelligenza artificiale sono alimentati – e, in definitiva, programmati – dai dati, rendendoli vulnerabili a nuovi attacchi, come l’avvelenamento dei dati di formazione. Gli attori malintenzionati che possono fornire allo strumento di intelligenza artificiale dati difettosi (o dati di addestramento legittimi corrotti) possono potenzialmente danneggiarlo o romperlo completamente in un modo più complesso di quanto visto con i sistemi tradizionali. E se lo strumento “apprende” attivamente, quindi il suo output cambia in base all’input nel tempo, le organizzazioni devono proteggerlo da un allontanamento dalla sua funzione originaria prevista.

Con un sistema aziendale tradizionale (non basato sull'intelligenza artificiale), ciò che ottieni è ciò che ci metti dentro. Non vedrai un output dannoso senza un input dannoso. Ma come ha detto Phil Venables, CISO di Google, in un recente podcast, "Per implementare [un] sistema di intelligenza artificiale, devi pensare alla gestione degli input e degli output."
La complessità dei sistemi di intelligenza artificiale e la loro natura dinamica li rendono più difficili da proteggere rispetto ai sistemi tradizionali. È necessario prestare attenzione sia nella fase di input, per monitorare ciò che entra nel sistema di intelligenza artificiale, sia nella fase di output, per garantire che gli output siano corretti e affidabili.

Implementazione di un framework di intelligenza artificiale sicuro

Proteggere i sistemi di intelligenza artificiale e anticipare nuove minacce sono priorità assolute per garantire che i sistemi di intelligenza artificiale si comportino come previsto. Il framework di intelligenza artificiale sicura di Google (SAIF) e suoi Proteggere l'IA: simile o diverso? Il rapporto è un buon punto di partenza, poiché fornisce una panoramica su come pensare e affrontare le particolari sfide alla sicurezza e le nuove vulnerabilità legate allo sviluppo dell’intelligenza artificiale.

SAIF inizia stabilendo una chiara comprensione di quali strumenti di intelligenza artificiale utilizzerà la tua organizzazione e di quale problema aziendale specifico affronterà. Definirlo in anticipo è fondamentale, poiché ti consentirà di capire chi sarà coinvolto nella tua organizzazione e a quali dati lo strumento dovrà accedere (il che aiuterà con la rigorosa governance dei dati e le pratiche di sicurezza dei contenuti necessarie per proteggere l’intelligenza artificiale). È anche una buona idea comunicare casi d'uso e limitazioni appropriati dell'intelligenza artificiale all'interno della tua organizzazione; questa politica può aiutare a proteggersi dagli usi non ufficiali dello “shadow IT” degli strumenti di intelligenza artificiale.

Dopo aver identificato chiaramente i tipi di strumenti e il caso d'uso, la tua organizzazione dovrebbe riunire un team per gestire e monitorare lo strumento di intelligenza artificiale. Tale team dovrebbe includere i team IT e di sicurezza, ma coinvolgere anche il team di gestione del rischio e l'ufficio legale, oltre a considerare le preoccupazioni relative alla privacy e all'etica.

Una volta identificata la squadra, è ora di iniziare l'allenamento. Per proteggere adeguatamente l'intelligenza artificiale nella tua organizzazione, devi iniziare con una guida introduttiva che aiuti tutti a capire cos'è lo strumento, cosa può fare e dove le cose possono andare storte. Quando uno strumento finisce nelle mani di dipendenti che non sono formati sulle capacità e sui limiti dell’intelligenza artificiale, aumenta significativamente il rischio di incidenti problematici.

Dopo aver eseguito questi passaggi preliminari, hai gettato le basi per proteggere l'intelligenza artificiale nella tua organizzazione. Ci sono sei elementi fondamentali del SAIF di Google che dovresti implementare, iniziando con basi sicure per impostazione predefinita e procedendo fino alla creazione di cicli di correzione e feedback efficaci squadra rossa.

Un altro elemento essenziale per proteggere l’intelligenza artificiale è mantenere gli esseri umani il più possibile coinvolti, riconoscendo al tempo stesso che la revisione manuale degli strumenti di intelligenza artificiale potrebbe essere migliore. La formazione è fondamentale man mano che si progredisce nell'utilizzo dell'intelligenza artificiale nella propria organizzazione: formazione e riqualificazione, non degli strumenti stessi, ma dei team. Quando l’intelligenza artificiale va oltre ciò che gli esseri umani della tua organizzazione comprendono e possono ricontrollare, il rischio di un problema aumenta rapidamente.

La sicurezza dell’intelligenza artificiale si sta evolvendo rapidamente ed è fondamentale che coloro che lavorano nel settore rimangano vigili. È fondamentale identificare potenziali nuove minacce e sviluppare contromisure per prevenirle o mitigarle in modo che l’intelligenza artificiale possa continuare ad aiutare le imprese e gli individui in tutto il mondo.

Per saperne di più Prospettive dei partner da Google Cloud

Timestamp:

Di più da Lettura oscura