Ein sicherer Ansatz für generative KI mit AWS | Amazon Web Services

Ein sicherer Ansatz für generative KI mit AWS | Amazon Web Services

Ein sicherer Ansatz für generative KI mit AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Generative künstliche Intelligenz (KI) verändert das Kundenerlebnis in Branchen auf der ganzen Welt. Kunden erstellen generative KI-Anwendungen mithilfe von Large Language Models (LLMs) und anderen Foundation Models (FMs), die das Kundenerlebnis verbessern, Abläufe transformieren, die Mitarbeiterproduktivität verbessern und neue Umsatzkanäle schaffen.

FMs und die darauf aufbauenden Anwendungen stellen für unsere Kunden äußerst wertvolle Investitionen dar. Sie werden häufig mit hochsensiblen Geschäftsdaten wie personenbezogenen Daten, Compliance-Daten, Betriebsdaten und Finanzinformationen verwendet, um die Ausgabe des Modells zu optimieren. Die größte Sorge, die wir von Kunden hören, wenn sie die Vorteile generativer KI erkunden, ist die Frage, wie sie ihre hochsensiblen Daten und Investitionen schützen können. Da ihre Daten- und Modellgewichte unglaublich wertvoll sind, verlangen Kunden, dass sie geschützt, sicher und privat bleiben, sei es vor den Konten ihres eigenen Administrators, ihrer Kunden, vor Schwachstellen in Software, die in ihren eigenen Umgebungen ausgeführt wird, oder sogar vor denen ihres Cloud-Dienstanbieters Zugang.

Bei AWS ist es unsere oberste Priorität, die Sicherheit und Vertraulichkeit der Workloads unserer Kunden zu gewährleisten. Wir denken über Sicherheit auf den drei Ebenen unseres generativen KI-Stacks nach:

  • Untere Schicht – Bietet die Tools zum Aufbau und zur Schulung von LLMs und anderen FMs
  • Mittlere Schicht – Bietet Zugriff auf alle Modelle sowie Tools, die Sie zum Erstellen und Skalieren generativer KI-Anwendungen benötigen
  • Oberste Schicht – Umfasst Anwendungen, die LLMs und andere FMs verwenden, um die Arbeit durch das Schreiben und Debuggen von Code, das Generieren von Inhalten, das Ableiten von Erkenntnissen und das Ergreifen von Maßnahmen stressfrei zu gestalten

Jede Ebene ist wichtig, um generative KI allgegenwärtig und transformativ zu machen.

Mit der AWS Nitro-Systemhaben wir im Namen unserer Kunden eine einzigartige Innovation geliefert. Das Nitro-System ist ein beispielloses Rechen-Rückgrat für AWS, bei dem Sicherheit und Leistung im Mittelpunkt stehen. Seine spezielle Hardware und die zugehörige Firmware sind darauf ausgelegt, Beschränkungen durchzusetzen, sodass niemand, auch niemand in AWS, auf Ihre Workloads oder Daten zugreifen kann, die auf Ihrem Server ausgeführt werden Amazon Elastic Compute-Cloud (Amazon EC2) Instanzen. Kunden profitieren seit 2 von dieser Vertraulichkeit und Isolation gegenüber AWS-Betreibern auf allen Nitro-basierten EC2017-Instanzen.

Es gibt konstruktionsbedingt keinen Mechanismus für einen Amazon-Mitarbeiter, auf eine Nitro EC2-Instanz zuzugreifen, die Kunden zum Ausführen ihrer Arbeitslasten verwenden, oder auf Daten zuzugreifen, die Kunden an einen Beschleuniger oder eine GPU für maschinelles Lernen (ML) senden. Dieser Schutz gilt für alle Nitro-basierten Instanzen, einschließlich Instanzen mit ML-Beschleunigern wie AWS-Inferenz und AWS-Trainingund Instanzen mit GPUs wie P4, P5, G5 und G6.

Das Nitro-System ermöglicht Elastischer Gewebeadapter (EFA), das das von AWS entwickelte AWS Scalable Reliable Datagram (SRD)-Kommunikationsprotokoll für elastisches und groß angelegtes verteiltes Training in der Cloud nutzt und so das einzige immer verschlüsselte Remote Direct Memory Access (RDMA)-fähige Netzwerk ermöglicht. Die gesamte Kommunikation über EFA ist verschlüsselt VPC-Verschlüsselung ohne dass es zu Leistungseinbußen kommt.

Das Design des Nitro-Systems wurde validiert durch die NCC Group, ein unabhängiges Cybersicherheitsunternehmen. AWS bietet ein hohes Maß an Schutz für Kunden-Workloads und wir glauben, dass dies das Maß an Sicherheit und Vertraulichkeit ist, das Kunden von ihrem Cloud-Anbieter erwarten sollten. Dieses Schutzniveau ist so wichtig, dass wir es in unsere aufgenommen haben AWS-Servicebedingungen um allen unseren Kunden zusätzliche Sicherheit zu bieten.

Innovation sicherer generativer KI-Workloads mithilfe der branchenführenden Sicherheitsfunktionen von AWS

Vom ersten Tag an verfügten die KI-Infrastruktur und -Dienste von AWS über integrierte Sicherheits- und Datenschutzfunktionen, die Ihnen die Kontrolle über Ihre Daten geben. Da Kunden schnell dazu übergehen, generative KI in ihren Unternehmen zu implementieren, müssen Sie sicher sein, dass Ihre Daten während des gesamten KI-Lebenszyklus, einschließlich Datenvorbereitung, Schulung und Inferenzierung, sicher behandelt werden. Die Sicherheit der Modellgewichte – der Parameter, die ein Modell während des Trainings lernt und die für seine Fähigkeit, Vorhersagen zu treffen, entscheidend sind – ist für den Schutz Ihrer Daten und die Aufrechterhaltung der Modellintegrität von größter Bedeutung.

Aus diesem Grund ist es für AWS von entscheidender Bedeutung, im Namen unserer Kunden weiterhin Innovationen voranzutreiben, um die Messlatte für die Sicherheit auf jeder Ebene des generativen KI-Stacks höher zu legen. Um dies zu erreichen, müssen unserer Meinung nach auf jeder Ebene des generativen KI-Stacks Sicherheit und Vertraulichkeit integriert sein. Sie müssen in der Lage sein, die Infrastruktur zum Trainieren von LLMs und anderen FMs zu sichern, sicher mit Tools zum Ausführen von LLMs und anderen FMs aufzubauen und Anwendungen, die FMs verwenden, mit integrierter Sicherheit und Datenschutz auszuführen, denen Sie vertrauen können.

Bei AWS bedeutet die Sicherung der KI-Infrastruktur, dass keine unbefugte Person, weder beim Infrastrukturbetreiber noch beim Kunden, auf sensible KI-Daten wie Gewichte von KI-Modellen und mit diesen Modellen verarbeitete Daten zugreifen kann. Es besteht aus drei Grundprinzipien:

  1. Vollständige Isolierung der KI-Daten vom Infrastrukturbetreiber – Der Infrastrukturbetreiber darf keine Möglichkeit haben, auf Kundeninhalte und KI-Daten zuzugreifen, wie z. B. KI-Modellgewichte und mit Modellen verarbeitete Daten.
  2. Möglichkeit für Kunden, KI-Daten von sich selbst zu isolieren – Die Infrastruktur muss einen Mechanismus bereitstellen, der das Laden von Modellgewichten und -daten in die Hardware ermöglicht und gleichzeitig isoliert und für die eigenen Benutzer und Software des Kunden unzugänglich bleibt.
  3. Geschützte Infrastrukturkommunikation – Die Kommunikation zwischen Geräten in der ML-Beschleuniger-Infrastruktur muss geschützt werden. Alle von außen zugänglichen Verbindungen zwischen den Geräten müssen verschlüsselt sein.

Das Nitro-System erfüllt das erste Prinzip der sicheren KI-Infrastruktur, indem es Ihre KI-Daten von AWS-Betreibern isoliert. Das zweite Prinzip bietet Ihnen eine Möglichkeit, den administrativen Zugriff Ihrer eigenen Benutzer und Software auf Ihre KI-Daten zu entfernen. AWS bietet Ihnen nicht nur eine Möglichkeit, dies zu erreichen, sondern wir haben es auch unkompliziert und praktisch gemacht, indem wir in den Aufbau einer integrierten Lösung dazwischen investiert haben AWS Nitro-Enklaven und AWS-Schlüsselverwaltungsservice (AWS KMS). Mit Nitro Enclaves und AWS KMS können Sie Ihre sensiblen KI-Daten mit Schlüsseln verschlüsseln, die Ihnen gehören und die Sie kontrollieren, diese Daten an einem Ort Ihrer Wahl speichern und die verschlüsselten Daten zur Inferenz sicher an eine isolierte Rechenumgebung übertragen. Während des gesamten Prozesses werden die sensiblen KI-Daten verschlüsselt und von Ihren eigenen Benutzern und der Software auf Ihrer EC2-Instanz isoliert, und AWS-Betreiber haben keinen Zugriff auf diese Daten. Zu den Anwendungsfällen, die von diesem Flow profitiert haben, gehört das Laufen LLM-Inferenzierung in einer Enklave. Bis heute arbeiten Nitro-Enklaven nur in der CPU, was das Potenzial für größere generative KI-Modelle und komplexere Verarbeitung begrenzt.

Wir haben unsere Pläne angekündigt, diesen durchgängig verschlüsselten Nitro-Flow um eine erstklassige Integration mit ML-Beschleunigern und GPUs zu erweitern und so das dritte Prinzip zu erfüllen. Sie sind in der Lage, sensible KI-Daten zu entschlüsseln und zur Verarbeitung in einen ML-Beschleuniger zu laden, während Sie gleichzeitig von Ihren eigenen Betreibern isoliert sind und die Authentizität der für die Verarbeitung der KI-Daten verwendeten Anwendung überprüfen. Über das Nitro-System können Sie Ihre Anwendungen kryptografisch bei AWS KMS validieren und Daten nur dann entschlüsseln, wenn die erforderlichen Prüfungen erfolgreich sind. Diese Erweiterung ermöglicht es AWS, eine End-to-End-Verschlüsselung für Ihre Daten anzubieten, während diese durch generative KI-Workloads fließen.

Wir planen, diesen Ende-zu-Ende-verschlüsselten Fluss im kommenden AWS-Design anzubieten Trainium2 sowie GPU-Instanzen auf Basis der kommenden Blackwell-Architektur von NVIDIA, die beide sichere Kommunikation zwischen Geräten bieten, das dritte Prinzip der sicheren KI-Infrastruktur. AWS und NVIDIA arbeiten eng zusammen, um eine gemeinsame Lösung auf den Markt zu bringen, darunter die neue NVIDIA Blackwell GPU 21-Plattform von NVIDIA, die die GB200 NVL72-Lösung von NVIDIA mit den Nitro System- und EFA-Technologien verbindet, um eine branchenführende Lösung für den sicheren Aufbau und Einsatz von Next-Gen-Lösungen bereitzustellen. Generation generativer KI-Anwendungen.

Wir treiben die Zukunft der generativen KI-Sicherheit voran

Heute nutzen Zehntausende Kunden AWS, um transformative generative KI-Anwendungen zu experimentieren und in die Produktion zu überführen. Generative KI-Workloads enthalten äußerst wertvolle und sensible Daten, die den Schutz Ihrer eigenen Betreiber und des Cloud-Dienstanbieters benötigen. Kunden, die AWS Nitro-basierte EC2-Instanzen verwenden, erhalten dieses Maß an Schutz und Isolierung von AWS-Betreibern seit 2017, als wir unser innovatives Nitro-System auf den Markt brachten.

Bei AWS setzen wir diese Innovation fort, indem wir in den Aufbau leistungsstarker und zugänglicher Funktionen investieren, um es unseren Kunden praktisch zu machen, ihre generativen KI-Workloads über die drei Schichten des generativen KI-Stacks hinweg zu sichern, sodass Sie sich auf das konzentrieren können, was Sie tun Am besten: Aufbau und Ausweitung der Nutzungsmöglichkeiten der generativen KI auf weitere Bereiche. Erfahren Sie mehr hier.


Über die Autoren

Ein sicherer Ansatz für generative KI mit AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.Anthony Liguori ist AWS VP und Distinguished Engineer für EC2

Ein sicherer Ansatz für generative KI mit AWS | Amazon Web Services PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.Colm MacCárthaigh ist AWS VP und Distinguished Engineer für EC2

Zeitstempel:

Mehr von AWS Maschinelles Lernen