Heute freuen wir uns, Ihnen mitteilen zu können, dass Sie jetzt Batch-Transformationen mit durchführen können Amazon SageMaker-JumpStart große Sprachmodelle (LLMs) für die Text2Text-Generierung. Batch-Transformationen sind in Situationen nützlich, in denen die Antworten nicht in Echtzeit erfolgen müssen und Sie daher Rückschlüsse im Batch für große Datenmengen in großen Mengen ziehen können. Für die Batch-Transformation wird ein Batch-Job ausgeführt, der Batch-Input als Datensatz und ein vorab trainiertes Modell verwendet und Vorhersagen für jeden Datenpunkt im Datensatz ausgibt. Die Batch-Transformation ist kosteneffektiv, da Batch-Transformationscluster im Gegensatz zu in Echtzeit gehosteten Endpunkten mit dauerhafter Hardware abgebaut werden, wenn der Job abgeschlossen ist, und die Hardware daher nur für die Dauer des Batch-Jobs verwendet wird.
In einigen Anwendungsfällen können Echtzeit-Inferenzanfragen zur Stapelverarbeitung in kleinen Stapeln gruppiert werden, um Antworten in Echtzeit oder nahezu in Echtzeit zu erstellen. Wenn Sie beispielsweise einen kontinuierlichen Datenstrom mit geringer Latenz und hohem Durchsatz verarbeiten müssen, würde das separate Aufrufen eines Echtzeitendpunkts für jede Anforderung mehr Ressourcen erfordern und die Verarbeitung aller Anforderungen kann länger dauern, da die Verarbeitung seriell erfolgt . Ein besserer Ansatz wäre, einige der Anfragen zu gruppieren und den Echtzeit-Endpunkt im Batch-Inferenzmodus aufzurufen, der Ihre Anfragen in einem Vorwärtsdurchlauf des Modells verarbeitet und die Massenantwort für die Anfrage in Echtzeit oder nahezu in Echtzeit zurückgibt . Die Latenz der Antwort hängt davon ab, wie viele Anfragen Sie gruppieren und wie groß der Instanzspeicher ist. Daher können Sie die Batchgröße entsprechend Ihren Geschäftsanforderungen hinsichtlich Latenz und Durchsatz anpassen. Wir nennen das Batch-Inferenz in Echtzeit weil es das Konzept der Stapelverarbeitung kombiniert und dennoch Echtzeitantworten liefert. Mit Echtzeit-Batch-Inferenz können Sie ein Gleichgewicht zwischen geringer Latenz und hohem Durchsatz erreichen und so große Datenmengen zeitnah und effizient verarbeiten.
Mit der Jumpstart-Batchtransformation für Text2Text-Generierungsmodelle können Sie die Batch-Hyperparameter über Umgebungsvariablen übergeben, was den Durchsatz weiter erhöht und die Latenz minimiert.
JumpStart bietet vorab trainierte Open-Source-Modelle für eine Vielzahl von Problemtypen, um Ihnen den Einstieg in maschinelles Lernen (ML) zu erleichtern. Sie können diese Modelle vor der Bereitstellung schrittweise trainieren und optimieren. JumpStart bietet außerdem Lösungsvorlagen, die eine Infrastruktur für gängige Anwendungsfälle einrichten, sowie ausführbare Beispiel-Notebooks für ML mit Amazon Sage Maker. Sie können über die JumpStart-Landingpage in auf die vorab trainierten Modelle, Lösungsvorlagen und Beispiele zugreifen Amazon SageMaker-Studio. Sie können auch mit dem SageMaker Python SDK auf JumpStart-Modelle zugreifen.
In diesem Beitrag zeigen wir, wie man die hochmodernen vorab trainierten Tools nutzt text2text FLAN T5-Modelle von Hugging Face für Batch-Transformation und Echtzeit-Batch-Inferenz.
Lösungsüberblick
Das Notizbuch zeigt die Stapeltransformation vorab trainierter Text2Text FLAN T5-Modelle von Gesicht umarmen im Folgenden verfügbar GitHub-Repository. Dieses Notizbuch verwendet Daten vom Hugging Face cnn_dailymail Datensatz für eine Textzusammenfassungsaufgabe mit dem SageMaker SDK.
Im Folgenden sind die wichtigsten Schritte zur Implementierung der Batch-Transformation und der Echtzeit-Batch-Inferenz aufgeführt:
- Voraussetzungen einrichten.
- Wählen Sie ein vorab trainiertes Modell aus.
- Rufen Sie Artefakte für das Modell ab.
- Geben Sie Hyperparameter für Batchtransformationsjobs an.
- Bereiten Sie Daten für die Batch-Transformation vor.
- Führen Sie den Batch-Transformationsauftrag aus.
- Bewerten Sie die Zusammenfassung mit a ROT (Recall-Oriented Understudy for Gisting Evaluation) Ergebnis.
- Führen Sie Batch-Inferenzen in Echtzeit durch.
Voraussetzungen einrichten
Bevor Sie das Notebook ausführen, müssen Sie einige anfängliche Einrichtungsschritte durchführen. Lassen Sie uns die SageMaker-Ausführungsrolle so einrichten, dass sie berechtigt ist, AWS-Dienste in Ihrem Namen auszuführen:
Wählen Sie ein vorab trainiertes Modell aus
Wir verwenden das Modell „hugingface-text2text-flan-t5-large“ als Standardmodell. Optional können Sie die Liste der verfügbaren Text2Text-Modelle auf JumpStart abrufen und Ihr bevorzugtes Modell auswählen. Diese Methode bietet eine einfache Möglichkeit, verschiedene Modell-IDs mit demselben Notebook auszuwählen. Zu Demonstrationszwecken verwenden wir das Modell „hugingface-text2text-flan-t5-large“:
Rufen Sie Artefakte für das Modell ab
Mit SageMaker können wir Rückschlüsse auf das vorab trainierte Modell ziehen, auch ohne es zuerst an einem neuen Datensatz zu optimieren. Wir beginnen mit dem Abrufen der deploy_image_uri
, deploy_source_uri
und model_uri
für das vorab trainierte Modell:
Geben Sie Hyperparameter für Batchtransformationsjobs an
Sie können eine beliebige Teilmenge von Hyperparametern als Umgebungsvariablen an den Batch-Transformationsauftrag übergeben. Sie können diese Hyperparameter auch in einer JSON-Nutzlast übergeben. Wenn Sie jedoch Umgebungsvariablen für Hyperparameter festlegen, wie im folgenden Code gezeigt, werden die erweiterten Hyperparameter aus den einzelnen Beispielen in der Nutzlast der JSON-Zeilen nicht verwendet. Wenn Sie Hyperparameter aus der Nutzlast verwenden möchten, möchten Sie möglicherweise die festlegen hyper_params_dict
Geben Sie stattdessen den Parameter null ein.
Bereiten Sie Daten für die Stapeltransformation vor
Jetzt können wir das laden cnn_dailymail Datensatz von Hugging Face:
Wir gehen jede Dateneingabe durch und erstellen die Eingabedaten im erforderlichen Format. Wir erstellen eine articles.jsonl
Datei als Testdatendatei mit Artikeln, die als Eingabenutzlast zusammengefasst werden müssen. Während wir diese Datei erstellen, hängen wir die Eingabeaufforderung an "Briefly summarize this text:"
zu jeder Testeingangszeile. Wenn Sie für jede Testeingabe unterschiedliche Hyperparameter haben möchten, können Sie diese Hyperparameter im Rahmen der Erstellung des Datensatzes anhängen.
Wir erstellen highlights.jsonl
als Ground-Truth-Datei, die die Höhepunkte jedes in der Testdatei gespeicherten Artikels enthält articles.jsonl
. Wir speichern beide Testdateien in einem Amazon Simple Storage-Service (Amazon S3) Eimer. Siehe den folgenden Code:
Führen Sie den Batch-Transformationsauftrag aus
Wenn Sie einen Batch-Transformationsauftrag starten, startet SageMaker die erforderlichen Rechenressourcen zur Verarbeitung der Daten, einschließlich CPU- oder GPU-Instanzen, je nach ausgewähltem Instanztyp. Während des Batch-Transformationsauftrags stellt SageMaker automatisch die zur Verarbeitung der Daten erforderlichen Rechenressourcen bereit und verwaltet sie, einschließlich Instanzen, Speicher und Netzwerkressourcen. Wenn der Batch-Transformationsauftrag abgeschlossen ist, werden die Rechenressourcen automatisch von SageMaker bereinigt. Dies bedeutet, dass die während des Auftrags verwendeten Instanzen und Speicher angehalten und entfernt werden, wodurch Ressourcen freigesetzt und Kosten minimiert werden. Siehe den folgenden Code:
Das Folgende ist ein Beispieldatensatz aus dem articles.jsonl
Testdatei. Beachten Sie, dass der Datensatz in dieser Datei eine ID hat, die mit übereinstimmt predict.jsonl
Dateidatensätze, die einen zusammengefassten Datensatz als Ausgabe des Hugging Face Text2Text-Modells anzeigen. Ebenso verfügt die Ground-Truth-Datei über eine passende ID für den Datensatz. Die übereinstimmende ID in der Testdatei, der Ground-Truth-Datei und der Ausgabedatei ermöglicht die Verknüpfung von Eingabedatensätzen mit Ausgabedatensätzen für eine einfache Interpretation der Ergebnisse.
Das Folgende ist der Beispiel-Eingabedatensatz, der zur Zusammenfassung bereitgestellt wird:
Das Folgende ist die vorhergesagte Ausgabe mit Zusammenfassung:
Das Folgende ist die Grundwahrheitszusammenfassung für Modellbewertungszwecke:
Als nächstes verwenden wir die Grundwahrheit und die vorhergesagten Ergebnisse für die Modellbewertung.
Bewerten Sie das Modell mithilfe eines ROUGE-Scores¶
ROT, oder Recall-Oriented Understudy for Gisting Evaluation, ist eine Reihe von Metriken und ein Softwarepaket, das zur Bewertung der automatischen Zusammenfassung und maschinellen Übersetzung bei der Verarbeitung natürlicher Sprache verwendet wird. Die Metriken vergleichen eine automatisch erstellte Zusammenfassung oder Übersetzung mit einer (von Menschen erstellten) Referenzzusammenfassung oder -übersetzung oder einer Reihe von Referenzen.
Im folgenden Code kombinieren wir die vorhergesagten und ursprünglichen Zusammenfassungen, indem wir sie mit dem gemeinsamen Schlüssel verbinden id
und verwenden Sie dies, um den ROUGE-Score zu berechnen:
Führen Sie Batch-Inferenzen in Echtzeit durch
Als Nächstes zeigen wir Ihnen, wie Sie eine Batch-Inferenz in Echtzeit auf dem Endpunkt ausführen, indem Sie die Eingaben als Liste bereitstellen. Wir verwenden dieselbe Modell-ID und denselben Datensatz wie zuvor, nehmen jedoch einige Datensätze aus dem Testdatensatz und verwenden sie, um einen Echtzeit-Endpunkt aufzurufen.
Der folgende Code zeigt, wie ein Echtzeit-Endpunkt für Echtzeit-Batch-Inferenz erstellt und bereitgestellt wird:
Als nächstes bereiten wir unsere Eingabenutzlast vor. Dazu verwenden wir die Daten, die wir zuvor vorbereitet haben, extrahieren die ersten 10 Testeingaben und hängen die Texteingaben mit Hyperparametern an, die wir verwenden möchten. Wir stellen diese Nutzlast in Echtzeit zur Verfügung invoke_endpoint
. Die Antwortnutzlast wird dann als Liste von Antworten zurückgegeben. Siehe den folgenden Code:
Aufräumen
Stellen Sie nach dem Testen des Endpunkts sicher, dass Sie den SageMaker-Inferenzendpunkt und das Modell löschen, um Gebühren zu vermeiden.
Zusammenfassung
In diesem Notizbuch haben wir eine Batch-Transformation durchgeführt, um das Hugging Face Text2Text Generator-Modell für Zusammenfassungsaufgaben vorzustellen. Die Stapeltransformation ist vorteilhaft, wenn es darum geht, Rückschlüsse aus großen Datensätzen zu ziehen, ohne dass ein persistenter Endpunkt erforderlich ist. Wir haben Eingabedatensätze mit Schlussfolgerungen verknüpft, um die Ergebnisinterpretation zu erleichtern. Wir haben den ROUGE-Score verwendet, um die Testdatenzusammenfassung mit der modellgenerierten Zusammenfassung zu vergleichen.
Darüber hinaus haben wir Echtzeit-Batch-Inferenz demonstriert, bei der Sie einen kleinen Datenstapel an einen Echtzeit-Endpunkt senden können, um ein Gleichgewicht zwischen Latenz und Durchsatz für Szenarien wie das Streamen von Eingabedaten zu erreichen. Echtzeit-Batch-Inferenz trägt dazu bei, den Durchsatz für Echtzeitanfragen zu erhöhen.
Probieren Sie noch heute die Batch-Transformation mit Text2Text-Generierungsmodellen in SageMaker aus und teilen Sie uns Ihr Feedback mit!
Über die Autoren
Hemant Singh ist ein Ingenieur für maschinelles Lernen mit Erfahrung in Amazon SageMaker JumpStart und den in Amazon SageMaker integrierten Algorithmen. Er erhielt seinen Master vom Courant Institute of Mathematical Sciences und seinen B.Tech vom IIT Delhi. Er verfügt über Erfahrung in der Arbeit an einer Vielzahl von Problemen des maschinellen Lernens im Bereich der Verarbeitung natürlicher Sprache, Computer Vision und Zeitreihenanalyse.
Rachna Chadha ist Principal Solutions Architect AI/ML in Strategic Accounts bei AWS. Rachna ist eine Optimistin, die glaubt, dass der ethische und verantwortungsvolle Einsatz von KI die Gesellschaft in Zukunft verbessern und wirtschaftlichen und sozialen Wohlstand bringen kann. In ihrer Freizeit verbringt Rachna gerne Zeit mit ihrer Familie, wandert und hört Musik.
Dr. Ashish Khetan ist Senior Applied Scientist mit integrierten Amazon SageMaker-Algorithmen und hilft bei der Entwicklung von Algorithmen für maschinelles Lernen. Er promovierte an der University of Illinois Urbana-Champaign. Er ist ein aktiver Forscher auf dem Gebiet des maschinellen Lernens und der statistischen Inferenz und hat viele Artikel auf den Konferenzen NeurIPS, ICML, ICLR, JMLR, ACL und EMNLP veröffentlicht.
- SEO-gestützte Content- und PR-Distribution. Holen Sie sich noch heute Verstärkung.
- PlatoAiStream. Web3-Datenintelligenz. Wissen verstärkt. Hier zugreifen.
- Die Zukunft prägen mit Adryenn Ashley. Hier zugreifen.
- Kaufen und verkaufen Sie Anteile an PRE-IPO-Unternehmen mit PREIPO®. Hier zugreifen.
- Quelle: https://aws.amazon.com/blogs/machine-learning/perform-batch-transforms-with-amazon-sagemaker-jumpstart-text2text-generation-large-language-models/
- :hast
- :Ist
- :nicht
- :Wo
- $UP
- 000
- 1
- 10
- 100
- 11
- 13
- 14
- 20
- 2014
- 50
- 7
- 8
- 9
- a
- Fähig
- LiveBuzz
- oben
- Akzeptanz
- akzeptiert
- Zugang
- Nach
- Trading Konten
- Erreichen
- Erwirbt
- über
- Aktionen
- aktiv
- advanced
- vorteilhaft
- gegen
- AI
- AI / ML
- Hilfe
- Algorithmen
- Alle
- angeblich
- erlaubt
- ebenfalls
- Amazon
- Amazon Sage Maker
- Amazon SageMaker-JumpStart
- Amazon Web Services
- an
- Analyse
- und
- Bekannt geben
- jedem
- Bienen
- angewandt
- Ansatz
- SIND
- um
- Artikel
- Artikel
- AS
- At
- Versuche
- Autorität
- automatische
- Im Prinzip so, wie Sie es von Google Maps kennen.
- verfügbar
- vermeiden
- AWS
- Balance
- Base
- basierend
- BE
- wurde
- weil
- wird
- Bevor
- Sein
- Glauben
- glaubt,
- Christoph
- Besser
- zwischen
- Körper
- beide
- Beide Seiten
- Grenzen
- kurz
- bringen
- Brings
- eingebaut
- Geschäft
- aber
- by
- rufen Sie uns an!
- CAN
- kann keine
- Fälle
- Verursachen
- Gebühren
- Auswählen
- Klasse
- Auftraggeber
- näher
- CNN
- Code
- kombinieren
- vereint
- Vereinigung
- wie die
- Verbindlichkeiten
- begangen
- gemeinsam
- vergleichen
- abschließen
- Berechnen
- Computer
- Computer Vision
- konzept
- Leiten
- Kongressbegleitung
- Container
- fortsetzen
- kontinuierlich
- beigetragen
- Kosten
- kostengünstiger
- könnte
- Ratschlag
- kontraproduktiv
- Ländern
- Platz
- erstellen
- Erstellen
- Verbrechen
- Kriminell
- technische Daten
- Dateneingabe
- Datensätze
- tot
- Entscheidung
- Standard
- Delhi
- zeigen
- Synergie
- Abteilung
- Abhängig
- einsetzen
- Einsatz
- beschrieben
- Bestimmen
- entwickeln
- Entwicklung
- abweichen
- Unterschiede
- anders
- Direkt
- verschieden
- do
- Docker
- Domain
- erledigt
- Nicht
- Von
- nach unten
- Dauer
- im
- jeder
- Früher
- Osten
- Einfache
- Wirtschaftlich
- effizient
- Bemühungen
- förderfähigen
- ermöglichen
- Ende
- Endpunkt
- Ingenieur
- gewährleisten
- Tritt ein
- Eintrag
- Arbeitsumfeld
- Era
- ethisch
- bewerten
- Auswerten
- Auswertung
- Sogar
- Beweis
- Beispiel
- Beispiele
- Außer
- aufgeregt
- Ausführung
- ERFAHRUNGEN
- Extrakt
- Gesicht
- Glauben
- Familie
- wenige
- Reichen Sie das
- Mappen
- Vorname
- Folgende
- Aussichten für
- Zwingen
- fremd
- formal
- Formal
- Format
- vorwärts
- Gründung
- für
- voller
- weiter
- Zukunft
- Generation
- Generator
- bekommen
- gibt
- Go
- Ziele
- Regierungen
- GPU
- mehr
- Boden
- Gruppe an
- Hardware
- Haben
- he
- Hilfe
- hilft
- hier (auf dänisch)
- hier
- GUTE
- Highlights
- seine
- gehostet
- Ultraschall
- Hilfe
- aber
- HTML
- http
- HTTPS
- Umarmendes Gesicht
- human
- Menschenrechte
- Menschlichkeit
- ID
- ids
- if
- Illinois
- Image
- sofort
- Umsetzung
- importieren
- zu unterstützen,
- in
- das
- Einschließlich
- Erhöhung
- Unabhängigkeit
- Krankengymnastik
- Individuell
- Information
- Infrastruktur
- Anfangs-
- Ungerechtigkeit
- Varianten des Eingangssignals:
- Eingänge
- Anfrage
- Instanz
- beantragen müssen
- Institut
- International
- Interpretation
- in
- untersuchen
- Untersuchung
- Untersuchungen
- Israel
- IT
- SEINE
- Januar
- Job
- join
- Beitritt
- jpg
- JSON
- Richter
- Juni
- Zuständigkeit
- nur
- Justiz
- Wesentliche
- Wissen
- Landung
- Sprache
- grosse
- Nachname
- Latency
- später
- startet
- lernen
- links
- lassen
- leicht
- Gefällt mir
- Gleichen
- Line
- Linien
- verknüpft
- Linking
- Liste
- Hören
- Belastung
- Lang
- länger
- Sneaker
- Maschine
- Maschinelles Lernen
- um
- Making
- Managed
- Weise
- viele
- markiert
- abgestimmt
- Abstimmung
- mathematisch
- Kann..
- Mittel
- Mitglied
- Mitglieder
- Mitgliedschaft
- Memory
- Methode
- Metrik
- minimieren
- ML
- Model
- Modell
- für
- Monat
- mehr
- schlauer bewegen
- Musik
- sollen
- Name
- Natürliche
- Verarbeitung natürlicher Sprache
- notwendig,
- Need
- Verhandlungen
- Weder
- Niederlande
- Vernetzung
- Neu
- News
- Pressemitteilung
- Notizbuch
- jetzt an
- Objekt
- beschaffen
- of
- Office
- Offiziell
- on
- EINEM
- einzige
- XNUMXh geöffnet
- Open-Source-
- geöffnet
- ablehnen
- entgegengesetzt
- or
- Original
- OS
- UNSERE
- Möglichkeiten für das Ausgangssignal:
- übrig
- Paket
- Seite
- Palästina
- Papiere
- Parameter
- Parameter
- Teil
- Party
- passieren
- Weg
- Pflasterung
- Frieden
- Personen
- Ausführen
- Berechtigungen
- Plato
- Datenintelligenz von Plato
- PlatoData
- Bitte
- Points
- möglich
- Post
- vorhersagen
- vorhergesagt
- Prognose
- Prognosen
- Predictor
- bevorzugt
- Danach
- bereit
- Voraussetzungen
- Präsident
- Druck
- Prime
- Premierminister
- Principal
- Aufgabenstellung:
- Probleme
- Prozessdefinierung
- anpassen
- Verarbeitung
- Produziert
- Wohlstand
- die
- vorausgesetzt
- bietet
- Bereitstellung
- veröffentlicht
- Zwecke
- Python
- Angebot
- bereit
- echt
- Echtzeit
- Rekord
- Aufzeichnungen
- Referenzen
- bezieht sich
- Release
- Entfernt
- WIEDERHOLT
- berichten
- Anforderung
- Zugriffe
- erfordern
- falls angefordert
- Voraussetzungen:
- Forscher
- Downloads
- Antwort
- Antworten
- Verantwortlichkeiten
- für ihren Verlust verantwortlich.
- Folge
- Die Ergebnisse
- Rückkehr
- Rückgabe
- Überprüfen
- Rechte
- Rollen
- Rom
- REIHE
- Führen Sie
- s
- sagemaker
- SageMaker-Inferenz
- Said
- gleich
- sagen
- Szenarien
- WISSENSCHAFTEN
- Wissenschaftler
- Ergebnis
- Sdk
- sehen
- auf der Suche nach
- ausgewählt
- senden
- Senior
- Modellreihe
- Lösungen
- kompensieren
- Einstellung
- Setup
- von Locals geführtes
- sie
- sollte
- erklären
- Vitrine
- Konzerte
- Seiten
- unterzeichnet
- Ähnlich
- Einfacher
- da
- Situation
- Umstände
- Größe
- klein
- So
- Social Media
- Gesellschaft
- Software
- Lösung
- Lösungen
- einige
- sprechen
- Sprechen
- Ausgabe
- Anfang
- begonnen
- Bundesstaat
- State Department
- State-of-the-art
- Erklärung
- Staaten
- statistisch
- Schritt
- Shritte
- Immer noch
- gestoppt
- Lagerung
- speichern
- gelagert
- einfach
- Strategisch
- Strom
- Streaming
- starker
- Fach
- zusammenfassen
- ZUSAMMENFASSUNG
- Sommer
- Support
- Nehmen
- gemacht
- nimmt
- Aufgabe
- und Aufgaben
- Tech
- Vorlagen
- Gebiete
- Gebiet
- Test
- als
- zur Verbesserung der Gesundheitsgerechtigkeit
- Das
- die Informationen
- Niederlande
- Der Staat
- die Welt
- ihr
- Sie
- dann
- deswegen
- Diese
- vom Nutzer definierten
- fehlen uns die Worte.
- diejenigen
- Durch
- Durchsatz
- Zeit
- Zeitfolgen
- zu
- heute
- gemeinsam
- zerrissen
- gegenüber
- Training
- Transformieren
- Transformator
- Transformationen
- Übersetzungen
- was immer dies auch sein sollte.
- Wahrheit
- tippe
- Typen
- Untergraben
- Vereinigt
- USA
- Universal-
- Universität
- nicht wie
- Uploading
- auf
- us
- -
- benutzt
- Verwendung von
- Vizepräsident:in
- Seh-
- Volumen
- W
- wollen
- Krieg
- wurde
- Ansehen
- Weg..
- we
- Netz
- Web-Services
- Wednesday
- willkommen
- begrüßt
- GUT
- Was
- wann
- ob
- welche
- während
- WHO
- breit
- Große Auswahl
- werden wir
- mit
- .
- ohne
- arbeiten,
- weltweit wie ausgehandelt und gekauft ausgeführt wird.
- würde
- Du
- Ihr
- Zephyrnet