Einführung von AWS AI Service Cards: Eine neue Ressource zur Verbesserung der Transparenz und Förderung verantwortungsvoller KI

Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gehören zu den transformativsten Technologien, denen wir in unserer Generation begegnen werden – um geschäftliche und gesellschaftliche Probleme anzugehen, Kundenerlebnisse zu verbessern und Innovationen voranzutreiben. Mit der weit verbreiteten Nutzung und dem wachsenden Umfang von KI geht die Erkenntnis einher, dass wir alle verantwortungsbewusst bauen müssen. Wir bei AWS glauben, dass verantwortungsvolle KI eine Reihe von Kerndimensionen umfasst, darunter:

  • Fairness und Voreingenommenheit– Wie sich ein System auf verschiedene Subpopulationen von Benutzern auswirkt (z. B. nach Geschlecht, ethnischer Zugehörigkeit)
  • Erklärbarkeit– Mechanismen zum Verstehen und Bewerten der Ergebnisse eines KI-Systems
  • Datenschutz und Sicherheit– Daten vor Diebstahl und Offenlegung geschützt
  • Robustheit– Mechanismen, die sicherstellen, dass ein KI-System zuverlässig arbeitet
  • Unternehmensführung– Prozesse zur Definition, Implementierung und Durchsetzung verantwortungsvoller KI-Praktiken innerhalb einer Organisation
  • Transparenz– Kommunizieren von Informationen über ein KI-System, damit die Beteiligten fundierte Entscheidungen über ihre Nutzung des Systems treffen können

Unser Engagement für die verantwortungsvolle Entwicklung von KI und ML ist ein wesentlicher Bestandteil dafür, wie wir unsere Dienstleistungen entwickeln, mit Kunden interagieren und Innovationen vorantreiben. Wir sind auch bestrebt, Kunden Tools und Ressourcen bereitzustellen, um KI/ML verantwortungsbewusst zu entwickeln und zu nutzen, von der Bereitstellung einer vollständig verwalteten Entwicklungsumgebung für ML-Entwickler bis hin zur Unterstützung von Kunden bei der Einbettung von KI-Diensten in gängige Geschäftsanwendungsfälle.

Kunden mehr Transparenz bieten

Unsere Kunden möchten wissen, dass die von ihnen verwendete Technologie auf verantwortungsvolle Weise entwickelt wurde. Sie möchten Ressourcen und Anleitungen, um diese Technologie verantwortungsbewusst in ihrer eigenen Organisation zu implementieren. Und vor allem möchten sie sicherstellen, dass die von ihnen eingeführte Technologie zum Nutzen aller ist, insbesondere der Endbenutzer. Wir bei AWS möchten ihnen dabei helfen, diese Vision zum Leben zu erwecken.

Um die Transparenz zu liefern, die Kunden verlangen, freuen wir uns auf den Start AWS AI-Servicekarten, eine neue Ressource, die Kunden hilft, unsere AWS-KI-Services besser zu verstehen. KI-Servicekarten sind eine Art verantwortungsvolle KI-Dokumentation, die Kunden einen zentralen Ort bietet, an dem sie Informationen zu den beabsichtigten Anwendungsfällen und Einschränkungen, verantwortungsvollen KI-Entwurfsentscheidungen und Best Practices für die Bereitstellung und Leistungsoptimierung unserer KI-Dienste finden können. Sie sind Teil eines umfassenden Entwicklungsprozesses, den wir unternehmen, um unsere Dienste auf verantwortungsvolle Weise aufzubauen, der Fairness und Voreingenommenheit, Erklärbarkeit, Robustheit, Governance, Transparenz, Datenschutz und Sicherheit berücksichtigt. Auf der AWS re:Invent 2022 stellen wir die ersten drei AI Service Cards zur Verfügung: Amazon Rekognition – Gesichtsabgleich, Amazon Textract – AnalyseID und Amazon Transcribe – Batch (Englisch-US).

Bestandteile der KI-Dienstkarten

Jede AI Service Card enthält vier Abschnitte, die Folgendes abdecken:

  • Grundlegende Konzepte, die Kunden dabei helfen sollen, den Dienst oder die Dienstmerkmale besser zu verstehen
  • Beabsichtigte Anwendungsfälle und Einschränkungen
  • Überlegungen zum verantwortungsbewussten KI-Design
  • Anleitung zur Bereitstellung und Leistungsoptimierung

Der Inhalt der KI-Servicekarten richtet sich an ein breites Publikum von Kunden, Technologen, Forschern und anderen Interessengruppen, die wichtige Überlegungen zur verantwortungsvollen Gestaltung und Nutzung eines KI-Dienstes besser verstehen möchten.

Unsere Kunden nutzen KI in immer vielfältigeren Anwendungen. Das vorgesehene Anwendungsfälle und Einschränkungen bietet Informationen zu allgemeinen Verwendungszwecken für einen Dienst und hilft Kunden bei der Beurteilung, ob ein Dienst für ihre Anwendung geeignet ist. Beispielsweise beschreiben wir in der Amazon Transcribe – Batch (English-US) Card den Service-Anwendungsfall der Transkription von allgemeinem Vokabular, das in US-Englisch aus einer Audiodatei gesprochen wird. Wenn ein Unternehmen eine Lösung wünscht, die ein domänenspezifisches Ereignis automatisch transkribiert, z. B. eine internationale neurowissenschaftliche Konferenz, kann es benutzerdefinierte Vokabulare und Sprachmodelle hinzufügen, um wissenschaftliches Vokabular einzuschließen, um die Genauigkeit der Transkription zu erhöhen.

Im Designbereich Auf jeder KI-Servicekarte erläutern wir wichtige Überlegungen zum verantwortungsbewussten KI-Design in wichtigen Bereichen, wie z. B. unsere testgetriebene Methodik, Fairness und Voreingenommenheit, Erklärbarkeit und Leistungserwartungen. Wir stellen beispielhafte Leistungsergebnisse für einen Bewertungsdatensatz bereit, der für einen allgemeinen Anwendungsfall repräsentativ ist. Dieses Beispiel ist jedoch nur ein Ausgangspunkt, da wir Kunden dazu ermutigen, ihre eigenen Datensätze zu testen, um besser zu verstehen, wie der Dienst bei ihren eigenen Inhalten und Anwendungsfällen funktioniert, um ihren Endkunden das beste Erlebnis zu bieten. Und dies ist keine einmalige Bewertung. Um verantwortungsvoll zu bauen, empfehlen wir einen iterativen Ansatz, bei dem Kunden ihre Anwendungen regelmäßig auf Genauigkeit oder potenzielle Verzerrungen testen und bewerten.

Im Best Practices für die Bereitstellung und Leistungsoptimierungstellen wir wichtige Hebel dar, die Kunden berücksichtigen sollten, um die Leistung ihrer Anwendung für den Einsatz in der realen Welt zu optimieren. Es ist wichtig zu erklären, wie Kunden die Leistung eines KI-Systems optimieren können, das als Komponente ihrer Gesamtanwendung oder ihres Arbeitsablaufs fungiert, um den maximalen Nutzen zu erzielen. Beispielsweise teilen wir in der Amazon Rekognition Face Matching Card, die das Hinzufügen von Gesichtserkennungsfunktionen zu Anwendungen zur Identitätsprüfung abdeckt, Schritte, die Kunden unternehmen können, um die Qualität der in ihren Arbeitsablauf integrierten Gesichtserkennungsvorhersagen zu verbessern.

Bereitstellung verantwortungsvoller KI-Ressourcen und -Fähigkeiten

Unseren Kunden die Ressourcen und Tools anzubieten, die sie benötigen, um verantwortungsbewusste KI von der Theorie in die Praxis umzuwandeln, ist eine ständige Priorität für AWS. Anfang dieses Jahres haben wir unsere gestartet Leitfaden zur verantwortungsvollen Nutzung von maschinellem Lernen das Überlegungen und Empfehlungen für den verantwortungsvollen Einsatz von ML in allen Phasen des ML-Lebenszyklus enthält. AI Service Cards ergänzen unsere bestehenden Entwicklerleitfäden und Blogbeiträge, die Entwicklern Beschreibungen von Servicefunktionen und detaillierte Anweisungen zur Verwendung unserer Service-APIs bieten. Und mit Amazon SageMaker klären und Amazon SageMaker-Modellmonitorbieten wir Funktionen, mit denen Sie Verzerrungen in Datensätzen und Modellen erkennen und Modellvorhersagen durch Automatisierung und menschliche Aufsicht besser überwachen und überprüfen können.

Gleichzeitig fördern wir die verantwortungsbewusste KI in anderen wichtigen Dimensionen wie Governance weiter. Bei re:Invent haben wir heute mit Amazon SageMaker Role Manager, Amazon SageMaker Model Cards und Amazon SageMaker Model Dashboard eine Reihe speziell entwickelter Tools eingeführt, um Kunden dabei zu helfen, die Governance ihrer ML-Projekte zu verbessern. Erfahren Sie mehr auf der AWS-News-Blog und Website darüber, wie diese Tools helfen, ML-Governance-Prozesse zu rationalisieren.

Bildung ist eine weitere wichtige Ressource, die dazu beiträgt, verantwortungsbewusste KI voranzubringen. Bei AWS setzen wir uns mit dem KI- und ML-Stipendienprogramm dafür ein, die nächste Generation von Entwicklern und Datenwissenschaftlern im Bereich KI aufzubauen AWS-Universität für maschinelles Lernen (MLU). Diese Woche haben wir bei re:Invent einen neuen, öffentlichen MLU-Kurs zu Fairness-Überlegungen und zur Minderung von Verzerrungen im gesamten ML-Lebenszyklus gestartet. Dieser kostenlose Kurs wird von denselben Amazon-Datenwissenschaftlern unterrichtet, die AWS-Mitarbeiter in ML schulen, und umfasst 9 Stunden Vorlesungen und praktische Übungen loslegen.

AI Service Cards: Eine neue Ressource – und ein fortwährendes Engagement

Wir freuen uns, unseren Kunden und der breiteren Community eine neue Transparenzressource zur Verfügung zu stellen und zusätzliche Informationen zu den beabsichtigten Verwendungen, Einschränkungen, dem Design und der Optimierung unserer KI-Services bereitzustellen, die auf unserem rigorosen Ansatz zum verantwortungsvollen Aufbau von AWS-KI-Services beruhen . Wir hoffen, dass AI Service Cards als nützliche Transparenzressource und als wichtiger Schritt in der sich entwickelnden Landschaft der verantwortungsvollen KI fungieren. AI Service Cards wird sich weiterentwickeln und erweitern, während wir mit unseren Kunden und der breiteren Community zusammenarbeiten, um Feedback zu sammeln und unseren Ansatz kontinuierlich zu wiederholen.

Kontaktieren Sie unsere Gruppe verantwortlicher KI-Experten ein Gespräch beginnen.


Über die Autoren

Einführung von AWS AI Service Cards: Eine neue Ressource zur Verbesserung der Transparenz und zur Förderung verantwortungsvoller KI-PlatoBlockchain-Datenintelligenz. Vertikale Suche. Ai.vasi Philomin ist derzeit Vice President im AWS AI-Team für Services in den Bereichen Sprach- und Sprachtechnologien wie Amazon Lex, Amazon Polly, Amazon Translate, Amazon Transcribe/Transcribe Medical, Amazon Comprehend, Amazon Kendra, Amazon Code Whisperer, Amazon Monitron, Amazon Suchen Sie nach Equipment und Contact Lens/Voice ID für Amazon Connect sowie Machine Learning Solutions Lab und Responsible AI.

Einführung von AWS AI Service Cards: Eine neue Ressource zur Verbesserung der Transparenz und zur Förderung verantwortungsvoller KI-PlatoBlockchain-Datenintelligenz. Vertikale Suche. Ai.Peter Hallinan leitet Initiativen in Wissenschaft und Praxis der verantwortungsbewussten KI bei AWS AI, zusammen mit einem Team verantwortungsbewusster KI-Experten. Er verfügt über fundiertes Fachwissen in den Bereichen KI (PhD, Harvard) und Unternehmertum (Blindsight, verkauft an Amazon). Zu seinen ehrenamtlichen Tätigkeiten gehörte die Tätigkeit als beratender Professor an der Stanford University School of Medicine und als Präsident der amerikanischen Handelskammer in Madagaskar. Wenn möglich, ist er mit seinen Kindern in den Bergen unterwegs: Skifahren, Klettern, Wandern und Rafting

Zeitstempel:

Mehr von AWS Maschinelles Lernen