En sikker tilgang til generativ kunstig intelligens med AWS | Amazon Web Services

En sikker tilgang til generativ kunstig intelligens med AWS | Amazon Web Services

A secure approach to generative AI with AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Generativ kunstig intelligens (AI) transformerer kundeoplevelsen i industrier over hele kloden. Kunder bygger generative AI-applikationer ved hjælp af store sprogmodeller (LLM'er) og andre fundamentmodeller (FM'er), som forbedrer kundeoplevelser, transformerer driften, forbedrer medarbejdernes produktivitet og skaber nye indtægtskanaler.

FM'er og applikationerne bygget op omkring dem repræsenterer ekstremt værdifulde investeringer for vores kunder. De bruges ofte sammen med meget følsomme forretningsdata, såsom personlige data, compliancedata, driftsdata og finansielle oplysninger, for at optimere modellens output. Den største bekymring, vi hører fra kunder, når de udforsker fordelene ved generativ kunstig intelligens, er, hvordan de beskytter deres meget følsomme data og investeringer. Fordi deres data og modelvægte er utroligt værdifulde, kræver kunderne, at de forbliver beskyttede, sikre og private, uanset om det er fra deres egen administrators konti, deres kunder, sårbarheder i software, der kører i deres egne miljøer, eller endda deres cloud-tjenesteudbyder fra at have adgang.

Hos AWS er ​​vores topprioritet at sikre sikkerheden og fortroligheden af ​​vores kunders arbejdsbelastning. Vi tænker på sikkerhed på tværs af de tre lag af vores generative AI-stak:

  • Nederste lag – Giver værktøjerne til at bygge og træne LLM'er og andre FM'er
  • Mellemlag – Giver adgang til alle modellerne sammen med værktøjer, du har brug for til at bygge og skalere generative AI-applikationer
  • Øverste lag – Indeholder applikationer, der bruger LLM'er og andre FM'er til at gøre arbejdet stressfrit ved at skrive og fejlfinde kode, generere indhold, udlede indsigt og handle

Hvert lag er vigtigt for at gøre generativ kunstig intelligens gennemtrængende og transformerende.

Med AWS Nitro System, leverede vi en første af sin slags innovation på vegne af vores kunder. Nitro-systemet er en uovertruffen computerrygrad til AWS, med sikkerhed og ydeevne i centrum. Dens specialiserede hardware og tilhørende firmware er designet til at håndhæve restriktioner, så ingen, inklusive nogen i AWS, kan få adgang til dine arbejdsbelastninger eller data, der kører på din Amazon Elastic Compute Cloud (Amazon EC2) forekomster. Kunder har nydt godt af denne fortrolighed og isolation fra AWS-operatører på alle Nitro-baserede EC2-instanser siden 2017.

Designet er der ingen mekanisme for nogen Amazon-medarbejder til at få adgang til en Nitro EC2-instans, som kunder bruger til at køre deres arbejdsbelastninger, eller til at få adgang til data, som kunder sender til en maskinlæringsaccelerator (ML) eller GPU. Denne beskyttelse gælder for alle Nitro-baserede instanser, inklusive instanser med ML acceleratorer som f.eks AWS-inferens , AWS Trainium, og forekomster med GPU'er som P4, P5, G5 og G6.

Nitro-systemet aktiverer Elastisk stofadapter (EFA), som bruger den AWS-byggede AWS Scalable Reliable Datagram (SRD) kommunikationsprotokol til skyskala elastisk og distribueret træning i stor skala, hvilket muliggør det eneste altid krypterede Remote Direct Memory Access (RDMA)-kompatible netværk. Al kommunikation gennem EFA er krypteret med VPC-kryptering uden at pådrage sig nogen præstationsstraf.

Designet af Nitro-systemet har været valideret af NCC Group, et uafhængigt cybersikkerhedsfirma. AWS leverer et højt niveau af beskyttelse for kundernes arbejdsbelastninger, og vi mener, at dette er det niveau af sikkerhed og fortrolighed, som kunderne bør forvente af deres cloud-udbyder. Dette beskyttelsesniveau er så kritisk, at vi har tilføjet det i vores AWS Servicevilkår at give en yderligere sikkerhed til alle vores kunder.

Innovation af sikre generative AI-arbejdsbelastninger ved hjælp af AWS brancheførende sikkerhedsfunktioner

Fra dag ét har AWS AI-infrastruktur og -tjenester haft indbyggede sikkerheds- og privatlivsfunktioner for at give dig kontrol over dine data. Efterhånden som kunder bevæger sig hurtigt for at implementere generativ AI i deres organisationer, skal du vide, at dine data håndteres sikkert på tværs af AI-livscyklussen, herunder dataforberedelse, træning og konklusioner. Sikkerheden af ​​modelvægte – de parametre, som en model lærer under træning, som er afgørende for dens evne til at lave forudsigelser – er altafgørende for at beskytte dine data og bevare modellens integritet.

Det er derfor, det er afgørende for AWS at fortsætte med at innovere på vegne af vores kunder for at hæve niveauet for sikkerhed på tværs af hvert lag af den generative AI-stak. For at gøre dette mener vi, at du skal have sikkerhed og fortrolighed indbygget på tværs af hvert lag af den generative AI-stak. Du skal være i stand til at sikre infrastrukturen til at træne LLM'er og andre FM'er, bygge sikkert med værktøjer til at køre LLM'er og andre FM'er og køre applikationer, der bruger FM'er med indbygget sikkerhed og privatliv, som du kan stole på.

Hos AWS refererer sikring af AI-infrastruktur til nul adgang til følsomme AI-data, såsom AI-modelvægte og data, der behandles med disse modeller, af enhver uautoriseret person, enten hos infrastrukturoperatøren eller hos kunden. Den består af tre hovedprincipper:

  1. Fuldstændig isolering af AI-data fra infrastrukturoperatøren – Infrastrukturoperatøren må ikke have mulighed for at få adgang til kundeindhold og AI-data, såsom AI-modelvægte og data behandlet med modeller.
  2. Mulighed for kunder til at isolere AI-data fra sig selv – Infrastrukturen skal give en mekanisme til at tillade modelvægte og data at blive indlæst i hardware, mens den forbliver isoleret og utilgængelig fra kundernes egne brugere og software.
  3. Beskyttet infrastrukturkommunikation – Kommunikationen mellem enheder i ML-acceleratorinfrastrukturen skal beskyttes. Alle eksternt tilgængelige links mellem enhederne skal være krypteret.

Nitro-systemet opfylder det første princip for sikker AI-infrastruktur ved at isolere dine AI-data fra AWS-operatører. Det andet princip giver dig en måde at fjerne administrativ adgang for dine egne brugere og software til dine AI-data. AWS tilbyder dig ikke kun en måde at opnå det på, men vi gjorde det også ligetil og praktisk ved at investere i at bygge en integreret løsning mellem AWS Nitro-enklaver , AWS Key Management Service (AWS KMS). Med Nitro Enclaves og AWS KMS kan du kryptere dine følsomme AI-data ved hjælp af nøgler, som du ejer og kontrollerer, gemme disse data på en lokation efter eget valg og sikkert overføre de krypterede data til et isoleret computermiljø til inferencing. Gennem hele denne proces er de følsomme AI-data krypteret og isoleret fra dine egne brugere og software på din EC2-instans, og AWS-operatører kan ikke få adgang til disse data. Brugssager, der har nydt godt af dette flow, omfatter kørsel LLM inferencing i en enklave. Indtil i dag opererer Nitro Enclaves kun i CPU'en, hvilket begrænser potentialet for større generative AI-modeller og mere kompleks behandling.

Vi annoncerede vores planer om at udvide dette Nitro end-to-end krypterede flow til at omfatte førsteklasses integration med ML acceleratorer og GPU'er, der opfylder det tredje princip. Du vil være i stand til at dekryptere og indlæse følsomme AI-data i en ML-accelerator til behandling, mens du sørger for isolation fra dine egne operatører og verificeret ægtheden af ​​den applikation, der bruges til at behandle AI-dataene. Gennem Nitro-systemet kan du kryptografisk validere dine applikationer til AWS KMS og kun dekryptere data, når de nødvendige kontroller passerer. Denne forbedring gør det muligt for AWS at tilbyde end-to-end-kryptering af dine data, når de flyder gennem generative AI-arbejdsbelastninger.

Vi planlægger at tilbyde dette end-to-end krypterede flow i det kommende AWS-designede Trainium 2 as well as GPU instances based on NVIDIA’s upcoming Blackwell architecture, which both offer secure communications between devices, the third principle of Secure AI Infrastructure. AWS and NVIDIA are collaborating closely to bring a joint solution to market, including NVIDIA’s new NVIDIA Blackwell GPU 21 platform, which couples NVIDIA’s GB200 NVL72 solution with the Nitro System and EFA technologies to provide an industry-leading solution for securely building and deploying next-generation generative AI applications.

Fremme fremtiden for generativ AI-sikkerhed

I dag bruger titusindvis af kunder AWS til at eksperimentere og flytte transformative generative AI-applikationer i produktion. Generative AI-arbejdsbelastninger indeholder meget værdifulde og følsomme data, der kræver beskyttelsesniveauet fra dine egne operatører og cloud-tjenesteudbyderen. Kunder, der bruger AWS Nitro-baserede EC2-instanser, har modtaget dette niveau af beskyttelse og isolation fra AWS-operatører siden 2017, hvor vi lancerede vores innovative Nitro-system.

Hos AWS fortsætter vi denne innovation, mens vi investerer i at opbygge effektive og tilgængelige muligheder for at gøre det praktisk for vores kunder at sikre deres generative AI-arbejdsbelastninger på tværs af de tre lag af den generative AI-stak, så du kan fokusere på det, du laver bedst: opbygning og udvidelse af anvendelserne af den generative AI til flere områder. Lær mere link..


Om forfatterne

A secure approach to generative AI with AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Anthony Liguori er AWS VP og Distinguished Engineer for EC2

A secure approach to generative AI with AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.Colm MacCárthaigh er AWS VP og Distinguished Engineer for EC2

Tidsstempel:

Mere fra AWS maskinindlæring