Un approccio sicuro all'intelligenza artificiale generativa con AWS | Servizi Web di Amazon

Un approccio sicuro all'intelligenza artificiale generativa con AWS | Servizi Web di Amazon

Un approccio sicuro all'intelligenza artificiale generativa con AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Intelligenza artificiale generativa (AI) sta trasformando l'esperienza del cliente nei settori di tutto il mondo. I clienti stanno creando applicazioni di intelligenza artificiale generativa utilizzando modelli linguistici di grandi dimensioni (LLM) e altri modelli di base (FM), che migliorano l’esperienza del cliente, trasformano le operazioni, migliorano la produttività dei dipendenti e creano nuovi canali di guadagno.

I FM e le applicazioni costruite attorno ad essi rappresentano investimenti estremamente preziosi per i nostri clienti. Vengono spesso utilizzati con dati aziendali altamente sensibili, come dati personali, dati di conformità, dati operativi e informazioni finanziarie, per ottimizzare l'output del modello. La preoccupazione più grande che sentiamo dai clienti mentre esplorano i vantaggi dell’intelligenza artificiale generativa è come proteggere i loro dati e investimenti altamente sensibili. Poiché i dati e il peso dei modelli sono incredibilmente preziosi, i clienti richiedono che rimangano protetti, protetti e privati, sia che si tratti degli account dei propri amministratori, dei propri clienti, delle vulnerabilità del software in esecuzione nei propri ambienti o persino del proprio fornitore di servizi cloud. accesso.

In AWS, la nostra massima priorità è salvaguardare la sicurezza e la riservatezza dei carichi di lavoro dei nostri clienti. Pensiamo alla sicurezza attraverso i tre livelli del nostro stack di intelligenza artificiale generativa:

  • Strato di fondo – Fornisce gli strumenti per la creazione e la formazione di LLM e altri FM
  • Strato intermedio – Fornisce l'accesso a tutti i modelli insieme agli strumenti necessari per creare e scalare applicazioni di intelligenza artificiale generativa
  • Strato superiore – Include applicazioni che utilizzano LLM e altri FM per rendere il lavoro senza stress scrivendo ed eseguendo il debug del codice, generando contenuti, ricavando approfondimenti e agendo

Ogni livello è importante per rendere l’IA generativa pervasiva e trasformativa.

Grazie alla Sistema AWS Nitro, abbiamo fornito un'innovazione unica nel suo genere per conto dei nostri clienti. Il sistema Nitro è una dorsale informatica senza precedenti per AWS, con sicurezza e prestazioni al centro. Il suo hardware specializzato e il firmware associato sono progettati per applicare restrizioni in modo che nessuno, incluso chiunque in AWS, possa accedere ai tuoi carichi di lavoro o ai dati in esecuzione sul tuo Cloud di calcolo elastico di Amazon (Amazon EC2). I clienti hanno beneficiato di questa riservatezza e isolamento dagli operatori AWS su tutte le istanze EC2 basate su Nitro dal 2017.

In base alla progettazione, non esiste alcun meccanismo che consenta ai dipendenti Amazon di accedere a un'istanza Nitro EC2 che i clienti utilizzano per eseguire i propri carichi di lavoro o di accedere ai dati che i clienti inviano a un acceleratore o GPU di machine learning (ML). Questa protezione si applica a tutte le istanze basate su Nitro, comprese le istanze con acceleratori ML come AWS Inferenza ed AWSTrainiume istanze con GPU come P4, P5, G5 e G6.

Il sistema Nitro consente Adattatore per tessuto elastico (EFA), che utilizza il protocollo di comunicazione AWS Scalable Reliable Datagram (SRD) per la formazione elastica e distribuita su larga scala su scala cloud, abilitando l'unica rete con accesso remoto diretto alla memoria (RDMA) sempre crittografata. Tutte le comunicazioni tramite EFA sono crittografate con Crittografia VPC senza incorrere in alcuna penalità di prestazione.

Il design del sistema Nitro è stato validato dal Gruppo NCC, una società di sicurezza informatica indipendente. AWS offre un elevato livello di protezione per i carichi di lavoro dei clienti e riteniamo che questo sia il livello di sicurezza e riservatezza che i clienti dovrebbero aspettarsi dal proprio fornitore di servizi cloud. Questo livello di protezione è così importante che lo abbiamo aggiunto nel nostro Termini del servizio AWS per dare una garanzia in più a tutti i nostri clienti.

Innovare i carichi di lavoro di IA generativa sicuri utilizzando le funzionalità di sicurezza leader del settore di AWS

Fin dal primo giorno, l'infrastruttura e i servizi AI di AWS dispongono di funzionalità di sicurezza e privacy integrate per darti il ​​controllo sui tuoi dati. Man mano che i clienti si muovono rapidamente verso l'implementazione dell'intelligenza artificiale generativa nelle loro organizzazioni, devi sapere che i tuoi dati vengono gestiti in modo sicuro durante tutto il ciclo di vita dell'intelligenza artificiale, inclusa la preparazione dei dati, la formazione e l'inferenza. La sicurezza dei pesi del modello, ovvero i parametri che un modello apprende durante l'addestramento e che sono fondamentali per la sua capacità di effettuare previsioni, è fondamentale per proteggere i dati e mantenere l'integrità del modello.

Questo è il motivo per cui è fondamentale che AWS continui a innovare per conto dei nostri clienti per alzare il livello di sicurezza su ogni livello dello stack di intelligenza artificiale generativa. Per fare ciò, riteniamo che sia necessario disporre di sicurezza e riservatezza integrate in ogni livello dello stack di intelligenza artificiale generativa. Devi essere in grado di proteggere l'infrastruttura per formare LLM e altri FM, costruire in modo sicuro con strumenti per eseguire LLM e altri FM ed eseguire applicazioni che utilizzano FM con sicurezza e privacy integrate di cui ti puoi fidare.

In AWS, la protezione dell'infrastruttura IA si riferisce all'accesso zero ai dati sensibili dell'IA, come i pesi dei modelli AI e i dati elaborati con tali modelli, da parte di qualsiasi persona non autorizzata, sia presso l'operatore dell'infrastruttura che presso il cliente. Si compone di tre principi chiave:

  1. Completo isolamento dei dati AI dal gestore dell'infrastruttura – Il gestore dell’infrastruttura non deve avere la possibilità di accedere ai contenuti del cliente e ai dati AI, come i pesi dei modelli AI e i dati elaborati con i modelli.
  2. Possibilità per i clienti di isolare i dati AI da se stessi – L'infrastruttura deve fornire un meccanismo per consentire il caricamento dei pesi e dei dati del modello nell'hardware, pur rimanendo isolata e inaccessibile agli utenti e al software dei clienti.
  3. Comunicazioni infrastrutturali protette – La comunicazione tra i dispositivi nell’infrastruttura dell’acceleratore ML deve essere protetta. Tutti i collegamenti accessibili dall'esterno tra i dispositivi devono essere crittografati.

Il sistema Nitro soddisfa il primo principio dell'infrastruttura AI sicura isolando i dati AI dagli operatori AWS. Il secondo principio ti offre un modo per rimuovere l'accesso amministrativo dei tuoi utenti e del tuo software ai tuoi dati AI. AWS non solo ti offre un modo per raggiungere questo obiettivo, ma lo abbiamo anche reso semplice e pratico investendo nella creazione di una soluzione integrata tra Enclavi AWS Nitro ed Servizio di gestione delle chiavi AWS (AWS KMS). Con Nitro Enclaves e AWS KMS, puoi crittografare i dati sensibili dell'intelligenza artificiale utilizzando chiavi che possiedi e controlli, archiviare tali dati in una posizione di tua scelta e trasferire in modo sicuro i dati crittografati in un ambiente di elaborazione isolato per l'inferenza. Durante l'intero processo, i dati sensibili dell'intelligenza artificiale vengono crittografati e isolati dai tuoi utenti e dal software sull'istanza EC2 e gli operatori AWS non possono accedere a questi dati. I casi d'uso che hanno beneficiato di questo flusso includono la corsa Inferenza LLM in un'enclave. Fino ad oggi, le Nitro Enclave operano solo nella CPU, limitando il potenziale per modelli di intelligenza artificiale generativa più grandi ed elaborazioni più complesse.

Abbiamo annunciato i nostri piani per estendere questo flusso crittografato end-to-end di Nitro per includere un'integrazione di prima classe con acceleratori e GPU ML, soddisfacendo il terzo principio. Sarai in grado di decrittografare e caricare dati sensibili di intelligenza artificiale in un acceleratore ML per l'elaborazione fornendo al contempo l'isolamento dai tuoi stessi operatori e verificando l'autenticità dell'applicazione utilizzata per l'elaborazione dei dati di intelligenza artificiale. Attraverso il Sistema Nitro, puoi validare crittograficamente le tue applicazioni su AWS KMS e decriptare i dati solo quando superano i controlli necessari. Questo miglioramento consente ad AWS di offrire crittografia end-to-end per i tuoi dati mentre passano attraverso carichi di lavoro di intelligenza artificiale generativa.

Prevediamo di offrire questo flusso crittografato end-to-end nei prossimi progetti progettati da AWS Trainium2 così come istanze GPU basate sull'imminente architettura Blackwell di NVIDIA, che offrono entrambe comunicazioni sicure tra dispositivi, il terzo principio dell'infrastruttura AI sicura. AWS e NVIDIA stanno collaborando strettamente per portare sul mercato una soluzione congiunta, inclusa la nuova piattaforma NVIDIA Blackwell GPU 21 di NVIDIA, che abbina la soluzione GB200 NVL72 di NVIDIA con il sistema Nitro e le tecnologie EFA per fornire una soluzione leader del settore per la creazione e la distribuzione sicura di soluzioni future. applicazioni di intelligenza artificiale generativa di nuova generazione.

Far avanzare il futuro della sicurezza dell’intelligenza artificiale generativa

Oggi, decine di migliaia di clienti utilizzano AWS per sperimentare e mettere in produzione applicazioni di intelligenza artificiale generativa trasformativa. I carichi di lavoro di intelligenza artificiale generativa contengono dati sensibili e di grande valore che richiedono il livello di protezione da parte dei tuoi operatori e del fornitore di servizi cloud. I clienti che utilizzano istanze EC2 basate su AWS Nitro hanno ricevuto questo livello di protezione e isolamento dagli operatori AWS dal 2017, quando abbiamo lanciato il nostro innovativo sistema Nitro.

In AWS, continuiamo a portare avanti questa innovazione investendo nella creazione di funzionalità accessibili e performanti per rendere pratico per i nostri clienti proteggere i loro carichi di lavoro di intelligenza artificiale generativa attraverso i tre livelli dello stack di intelligenza artificiale generativa, in modo che tu possa concentrarti su ciò che fai migliore: costruire ed estendere gli usi dell’intelligenza artificiale generativa a più aree. Saperne di più qui.


Circa gli autori

Un approccio sicuro all'intelligenza artificiale generativa con AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Anthony Liguori è vicepresidente AWS e ingegnere distinto per EC2

Un approccio sicuro all'intelligenza artificiale generativa con AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.Colm MacCárthaigh è vicepresidente AWS e ingegnere distinto per EC2

Timestamp:

Di più da Apprendimento automatico di AWS