Come progettare in modo sicuro l'IA nei tuoi programmi di sicurezza informatica

Come progettare in modo sicuro l'IA nei tuoi programmi di sicurezza informatica

Come progettare in modo sicuro l'intelligenza artificiale nei tuoi programmi di sicurezza informatica PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Alla fine di giugno, la società di sicurezza informatica Group-IB ha rivelato un notevole violazione della sicurezza che ha avuto un impatto sugli account ChatGPT. La società ha identificato l'incredibile cifra di 100,000 dispositivi compromessi, ciascuno con credenziali ChatGPT che sono state successivamente scambiate su mercati illeciti del Dark Web nel corso dell'ultimo anno. Questa violazione ha richiesto un'attenzione immediata per affrontare la sicurezza compromessa degli account ChatGPT, poiché le query di ricerca contenenti informazioni sensibili vengono esposte agli hacker.

In un altro incidente, nell'arco di meno di un mese, Samsung ha subito tre casi documentati in cui i dipendenti hanno inavvertitamente informazioni sensibili trapelate tramite ChatGPT. Poiché ChatGPT conserva i dati di input dell'utente per migliorare le proprie prestazioni, questi preziosi segreti commerciali appartenenti a Samsung sono ora in possesso di OpenAI, la società dietro il servizio AI. Ciò pone notevoli preoccupazioni per quanto riguarda la riservatezza e la sicurezza delle informazioni proprietarie di Samsung.

A causa di tali preoccupazioni sulla conformità di ChatGPT al Regolamento generale sulla protezione dei dati (GDPR) dell'UE, che impone linee guida rigorose per la raccolta e l'utilizzo dei dati, L'Italia ha imposto un divieto a livello nazionale sull'uso di ChatGPT.

I rapidi progressi nell'intelligenza artificiale e nelle applicazioni di intelligenza artificiale generativa hanno aperto nuove opportunità per accelerare la crescita della business intelligence, dei prodotti e delle operazioni. Ma i proprietari dei programmi di sicurezza informatica devono garantire la privacy dei dati in attesa che vengano sviluppate le leggi.

Motore pubblico contro motore privato

Per comprendere meglio i concetti, iniziamo definendo AI pubblica e AI privata. L'intelligenza artificiale pubblica si riferisce ad applicazioni software di intelligenza artificiale accessibili al pubblico che sono state addestrate su set di dati, spesso provenienti da utenti o clienti. Un ottimo esempio di intelligenza artificiale pubblica è ChatGPT, che sfrutta i dati pubblicamente disponibili da Internet, inclusi articoli di testo, immagini e video.

L'intelligenza artificiale pubblica può anche comprendere algoritmi che utilizzano set di dati non esclusivi di un utente o di un'organizzazione specifici. Di conseguenza, i clienti dell'IA pubblica dovrebbero essere consapevoli che i loro dati potrebbero non rimanere interamente privati.

L'intelligenza artificiale privata, d'altra parte, implica l'addestramento di algoritmi su dati unici per un particolare utente o organizzazione. In questo caso, se utilizzi sistemi di machine learning per addestrare un modello utilizzando un set di dati specifico, ad esempio fatture o moduli fiscali, tale modello rimane esclusivo per la tua organizzazione. I fornitori di piattaforme non utilizzano i tuoi dati per addestrare i propri modelli, quindi l'intelligenza artificiale privata impedisce qualsiasi utilizzo dei tuoi dati per aiutare i tuoi concorrenti.

Integra l'intelligenza artificiale nei programmi e nelle politiche di formazione

Al fine di sperimentare, sviluppare e integrare le applicazioni AI nei propri prodotti e servizi aderendo alle migliori pratiche, il personale addetto alla sicurezza informatica dovrebbe mettere in pratica le seguenti politiche.

Consapevolezza ed educazione degli utenti: Educare gli utenti sui rischi associati all'utilizzo dell'IA e incoraggiarli a essere cauti quando trasmettono informazioni sensibili. Promuovere pratiche di comunicazione sicure e consigliare agli utenti di verificare l'autenticità del sistema di IA.

  • Minimizzazione dei dati: Fornisci al motore di intelligenza artificiale solo la quantità minima di dati necessari per eseguire l'attività. Evita di condividere informazioni non necessarie o sensibili che non sono rilevanti per l'elaborazione dell'IA.
  • Anonimizzazione e anonimizzazione: Quando possibile, anonimizza o anonimizza i dati prima di inserirli nel motore di intelligenza artificiale. Ciò comporta la rimozione delle informazioni di identificazione personale (PII) o di qualsiasi altro attributo sensibile che non è richiesto per l'elaborazione AI.

Pratiche di gestione sicura dei dati: Stabilisci politiche e procedure rigorose per la gestione dei tuoi dati sensibili. Limitare l'accesso solo al personale autorizzato e applicare forti meccanismi di autenticazione per impedire l'accesso non autorizzato. Formare i dipendenti sulle best practice sulla privacy dei dati e implementare meccanismi di registrazione e controllo per tenere traccia dell'accesso e dell'utilizzo dei dati.

Conservazione e smaltimento: Definisci criteri di conservazione dei dati e smaltiscili in modo sicuro una volta che non sono più necessari. Implementazione corretta meccanismi di smaltimento dei dati, come la cancellazione sicura o la cancellazione crittografica, per garantire che i dati non possano essere recuperati dopo che non sono più necessari.

Considerazioni legali e di conformità: Comprendi le implicazioni legali dei dati che stai inserendo nel motore di intelligenza artificiale. Garantire che il modo in cui gli utenti utilizzano l'IA sia conforme alle normative pertinenti, come ad esempio leggi sulla protezione dei dati o standard specifici del settore.

Valutazione del fornitore: Se stai utilizzando un motore di intelligenza artificiale fornito da un fornitore di terze parti, esegui una valutazione approfondita delle loro misure di sicurezza. Assicurati che il fornitore segua le migliori pratiche del settore per la sicurezza e la privacy dei dati e che disponga di misure di sicurezza adeguate per proteggere i tuoi dati. L'attestazione ISO e SOC, ad esempio, fornisce valide convalide di terze parti dell'adesione di un fornitore a standard riconosciuti e del suo impegno per la sicurezza delle informazioni.

Formalizzare una politica di utilizzo accettabile dell'IA (AUP): Una politica di utilizzo accettabile dell'IA dovrebbe delineare lo scopo e gli obiettivi della politica, sottolineando l'uso responsabile ed etico delle tecnologie dell'IA. Dovrebbe definire casi d'uso accettabili, specificando l'ambito e i limiti per l'utilizzo dell'IA. L'AUP dovrebbe incoraggiare la trasparenza, la responsabilità e il processo decisionale responsabile nell'utilizzo dell'IA, promuovendo una cultura di pratiche etiche di AI all'interno dell'organizzazione. Revisioni e aggiornamenti regolari garantiscono la pertinenza della politica per l'evoluzione delle tecnologie e dell'etica dell'IA.

Conclusioni

Aderendo a queste linee guida, i proprietari dei programmi possono sfruttare efficacemente gli strumenti di intelligenza artificiale salvaguardando le informazioni sensibili e rispettando gli standard etici e professionali. È fondamentale rivedere l'accuratezza del materiale generato dall'intelligenza artificiale proteggendo contemporaneamente i dati immessi che vanno a generare richieste di risposta.

Timestamp:

Di più da Lettura oscura