AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart verfügbar

Heute kündigen wir die öffentliche Verfügbarkeit von Amazons State-of-the-Art an Alexa Teacher Model mit 20 Milliarden Parametern  (AlexaTM 20B) durch Amazon SageMaker-JumpStart, dem Zentrum für maschinelles Lernen von SageMaker. AlexaTM 20B ist ein mehrsprachiges, groß angelegtes Sequenz-zu-Sequenz (seq2seq)-Sprachmodell, das von Amazon entwickelt wurde. Sie können AlexaTM 20B für eine Vielzahl von Anwendungsfällen in der Branche verwenden, von der Zusammenfassung von Finanzberichten bis zur Beantwortung von Fragen für Kundenservice-Chatbots. Es kann auch angewendet werden, wenn nur wenige oder gar keine Trainingsbeispiele verfügbar sind. AlexaTM 20B outperforms 175 Mrd GPT-3-Modell auf Zero-Shot-Lernaufgaben wie SuperGLUE und zeigt modernste Leistung für mehrsprachige Zero-Shot-Aufgaben wie XNLI.

In diesem Beitrag geben wir einen Überblick darüber, wie Inferenzen mit dem AlexaTM 20B-Modell programmgesteuert über JumpStart-APIs bereitgestellt und ausgeführt werden, die in verfügbar sind SageMaker Python-SDK. Wir veranschaulichen, wie Sie dieses Modell verwenden können, um zwischen mehreren Sprachen zu übersetzen, Langformtext zusammenzufassen, Fragen basierend auf einem bestimmten Kontext zu beantworten und Text zu generieren, der von menschengeschriebenem Text nicht zu unterscheiden ist.

AlexaTM 20B und Kontextlernen

Das Alexa Teacher Model (AlexaTM)-Programm von Amazon Alexa AI wurde entwickelt, um groß angelegte, mehrsprachige Deep-Learning-Modelle (hauptsächlich Transformer-basiert) zu erstellen, mit dem Ziel, die Verallgemeinerung und den Umgang mit Datenknappheit für nachgelagerte Aufgaben zu verbessern. Mit umfangreichem Vortraining können Lehrermodelle gut verallgemeinern, um neue Aufgaben aus spärlichen Daten zu lernen und Entwicklern zu helfen, die Leistung bei nachgelagerten Aufgaben zu verbessern. AlexaTM 20B gezeigt hat Wettkampfleistung zu gängigen Benchmarks und Aufgaben zur Verarbeitung natürlicher Sprache (NLP), wie maschinelle Übersetzung, Datengenerierung und -zusammenfassung.

Die Verwendung von Basismodellen wie AlexaTM 20B reduziert den Bedarf an teurem Modellvortraining und bietet einen hochmodernen Ausgangspunkt, um Aufgabenmodelle mit weniger Aufwand und weniger aufgabenspezifischen Trainingsdaten zu entwickeln. Eine der Schlüsselfähigkeiten von Basismodellen besteht darin, dass wir einem Modell beibringen können, neue Aufgaben wie Fragen und Antworten in verschiedenen Sprachen auszuführen, und zwar mit sehr wenigen Eingabebeispielen und ohne erforderliche Feinabstimmung oder Gradientenaktualisierungen. Dies ist bekannt als kontextbezogenes Lernen. Mit nur wenigen Beispielen für eine neue Aufgabe, die als Kontext für die Schlussfolgerung bereitgestellt werden, kann das AlexaTM 20B-Modell Wissen aus dem, was während eines umfangreichen Vortrainings gelernt wurde, übertragen, sogar über Sprachen hinweg. Das nennt man Lernen mit wenigen Schüssen. In einigen Fällen kann das Modell auch ohne Trainingsdaten gut funktionieren, nur mit einer Erklärung dessen, was vorhergesagt werden sollte. Das nennt man Zero-Shot-Lernen. Nehmen wir zum Beispiel an, wir verwenden AlexaTM 20B für die One-Shot-Erzeugung natürlicher Sprache. Die an das Modell übergebene Eingabe ist das Trainingsbeispiel in Form von Attribut-Wert-Paaren zusammen mit der entsprechenden Ausgabetexterzählung. Das Testbeispiel wird dann angehängt, um die vollständige Eingabeaufforderung zu bilden, wie in der folgenden Abbildung gezeigt.

Um mehr über das Modell zu erfahren, schauen Sie vorbei Das Alexa-Modell mit 20B-Parametern setzt neue Maßstäbe beim Lernen mit wenigen Aufnahmen oder das Original Krepppapier.

Die Nutzung von AlexaTM 20B wird für die nichtkommerzielle Nutzung zur Verfügung gestellt und ist unter den abgedeckt Lizenzvereinbarung für das Alexa-Lehrermodell.

Lösungsüberblick

Die folgenden Abschnitte bieten eine Schritt-für-Schritt-Demonstration zum Bereitstellen des Modells, zum Ausführen von Inferenzen und zum kontextbezogenen Lernen, um Lernaufgaben mit wenigen Aufnahmen zu lösen.

Beachten Sie, dass der folgende Abschnitt Codeschnipsel enthält; Der vollständige Code mit allen Schritten in dieser Demo ist im begleitenden Notizbuch verfügbar: Kontextbezogenes Lernen mit AlexaTM 20B in SageMaker JumpStart.

Stellen Sie das Modell bereit

Um ein großes Sprachmodell in SageMaker zu verwenden, benötigen Sie ein für das Modell spezifisches Inferenzskript, das Schritte wie Laden des Modells, Parallelisierung und mehr enthält. Sie müssen auch End-to-End-Tests für Skripte, Modelle und die gewünschten Instance-Typen erstellen, um zu überprüfen, ob alle drei zusammenarbeiten können. JumpStart beseitigt diesen Aufwand, indem es gebrauchsfertige Skripts bereitstellt, die gründlich getestet wurden.

SageMaker bietet Ihnen die Möglichkeit, Docker-Container umfassend zu Schulungs- und Rückschlusszwecken auszuführen. JumpStart verwendet diese verfügbaren Frameworks spezifisch SageMaker Deep Learning-Container (DLCs). Wir beginnen mit dem Abrufen des optimierten DLC (deploy_image_uri) Verwendung der model_id. Dann holen wir die model_uri enthält die Modellparameter sowie Skripts zur Inferenzbehandlung und alle zugehörigen Abhängigkeiten. Als nächstes erstellen wir eine Modellinstanz in SageMaker und stellen Sie es auf einem Echtzeit-Endpunkt bereit. Siehe folgenden Code:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

Die Bereitstellung von AlexaTM 20B erfordert eine GPU-unterstützte Instanz mit mindestens 50 GB CPU-Speicher und mindestens 42 GB GPU-Speicher. SageMaker bietet viele solcher Instanzen, die Echtzeit-Inferenz unterstützen. Wir haben diese Lösung auf drei Instanzen getestet: ml.g4dn.12xlarge, ml.p3.8xlarge, ml.p3.16xlarge. Siehe folgenden Code:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

Als Nächstes stellen wir das Modell auf einem SageMaker-Echtzeit-Endpunkt bereit:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

AlexaTM 20B benötigt 40 GB Speicherplatz im Inferenzcontainer. Eine ml.g4dn.12xlarge-Instanz erfüllt diese Anforderung. Für die Typen ml.p3.8xlarge und ml.p3.16xlarge fügen wir beispielsweise eine an Amazon Elastic Block-Shop (Amazon EBS)-Volume, um die große Modellgröße zu handhaben. Deshalb legen wir fest volume_size = None bei der Bereitstellung auf ml.g4dn.12xlarge und volume_size=256 bei der Bereitstellung auf ml.p3.8xlarge oder ml.p3.16xlarge.

Das Bereitstellen des Modells kann bis zu 10 Minuten dauern. Nachdem das Modell bereitgestellt wurde, können wir Vorhersagen daraus in Echtzeit erhalten!

Inferenz ausführen

AlexaTM 20B ist ein Textgenerierungsmodell, das ausgehend von einer Teilsequenz (einem Satz oder Textstück) die nächste Wortgruppe generiert. Das folgende Code-Snippet gibt Ihnen einen Einblick, wie Sie den von uns bereitgestellten Endpunkt abfragen und die Ausgaben für die Aufgabe zur automatischen Vervollständigung analysieren. Um Anforderungen an ein bereitgestelltes Modell zu senden, verwenden wir ein im UTF-8-Format codiertes JSON-Wörterbuch. Die Endpunktantwort ist ein JSON-Objekt, das eine Liste generierter Texte enthält.

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

Als Nächstes fragen wir den Endpunkt ab und parsen die Antwort anhand eines Beispiel-Eingabetexts:

# text can be a single string or a list of strings
text = “[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, “max_length”: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: “travel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.”

AlexaTM 20B unterstützt derzeit 10 Textgenerierungsparameter während der Inferenz: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_p und seed. Ausführliche Informationen zu gültigen Werten für jeden Parameter und deren Auswirkungen auf die Ausgabe finden Sie im begleitenden Notizbuch: Kontextbezogenes Lernen mit AlexaTM 20B in SageMaker JumpStart.

Kontextbezogenes Lernen

In-Kontext-Lernen bezieht sich auf Folgendes: Wir versehen das Sprachmodell mit einer Eingabeaufforderung, die aus dem Training von Input-Output-Paaren besteht, die die Aufgabe demonstrieren. Wir hängen eine Testeingabe an die Eingabeaufforderung an und erlauben dem Sprachmodell, Vorhersagen zu treffen, indem wir die Eingabeaufforderung konditionieren und die nächsten Token oder Wörter vorhersagen. Dies ist eine hochwirksame Technik, um wenige Schusslernprobleme zu lösen, bei denen wir eine Aufgabe aus wenigen Trainingsbeispielen lernen.

Als Nächstes zeigen wir, wie Sie AlexaTM 20B für mehrere 1-Shot- und Zero-Shot-Aufgaben über In-Context-Learning verwenden können. Im Gegensatz zu früheren Sequence-to-Sequence-Modellen wurde AlexaTM 20B zusätzlich zum Denoising auf kausale Sprachmodellierung trainiert, was es zu einem guten Modell für kontextbezogenes Lernen macht.

1-Schuss-Textzusammenfassung

Die Textzusammenfassung ist die Aufgabe, die Daten zu kürzen und eine Zusammenfassung zu erstellen, die die wichtigsten im Originaltext vorhandenen Informationen darstellt. 1-Shot-Textzusammenfassung bezieht sich auf die Einstellung, in der wir lernen, den Text basierend auf einem einzelnen Trainingsbeispiel zusammenzufassen. Der folgende Code ist ein Textzusammenfassungsbeispiel aus der XSUM-Datensatz:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly £400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

Wir verwenden die folgende Eingabeaufforderung zur Zusammenfassung, wenn nur ein Trainingsbeispiel bereitgestellt wird. Der generierte Text aus dem Modell wird als vorhergesagte Zusammenfassung des Testartikels interpretiert.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.

Die Ausgabe ist wie folgt:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

1-Shot-Generierung natürlicher Sprache

Die Generierung natürlicher Sprache ist die Aufgabe, aus dem Eingabetext Texterzählungen zu erzeugen. Das folgende Beispiel zeigt ein Trainingsbeispiel aus der E2E-Datensatz:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

Wir verwenden die folgende Eingabeaufforderung für die Generierung natürlicher Sprache, wenn nur ein Trainingsbeispiel (1-Shot) bereitgestellt wird. Der generierte Text aus dem Modell wird als vorhergesagte Texterzählung für die Testeingabe interpretiert (test_inp).

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.

Die Ausgabe ist wie folgt:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

1-Schuss-Maschinenübersetzung

Maschinelle Übersetzung ist die Aufgabe, Texte von einer Sprache in eine andere zu übersetzen. Das folgende Beispiel zeigt ein Trainingsbeispiel aus der WMT19-Datensatz in dem wir vom Deutschen ins Englische übersetzen müssen:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingärtner bewirtschaften den einstigen Grund von Bauern."

Wir verwenden die folgende Eingabeaufforderung für die maschinelle Übersetzung, wenn nur ein Trainingsbeispiel (1-Shot) bereitgestellt wird. Generierter Text aus dem Modell wird als Übersetzung der Testeingabe interpretiert (test_inp).

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.

Die Ausgabe ist wie folgt:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

Zero-Shot-extraktive Fragebeantwortung

Extractive Question Answering ist die Aufgabe, die Antwort auf eine Frage aus dem Kontextabsatz zu finden. Das Folgende ist ein Beispiel für einen Kontext und eine Frage aus dem SQuAD v2-Datensatz:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

Beachten Sie, dass wir keine Trainingsbeispiele für unsere Aufgabe haben. Stattdessen erstellen wir eine Dummy-Frage zum letzten Wort in der Eingabeaufforderung , basierend auf der test_context (Dummy-Aufnahme). Daher führen wir tatsächlich eine Zero-Shot-Extraktions-Fragebeantwortung durch.

Wir verwenden die folgende Eingabeaufforderung für die Beantwortung von Extraktionsfragen, wenn kein Trainingsbeispiel bereitgestellt wird. Generierter Text aus dem Modell wird als Antwort auf die Testfrage interpretiert.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.

Die Ausgabe ist wie folgt:

AlexaTM 20B output: 'France'

Schnelles Engineering

Prompt Engineering kann manchmal eine Kunst sein. Selbst kleine Änderungen an der Eingabeaufforderungsvorlage können zu erheblichen Änderungen der Leistung des Modells bei einer bestimmten Aufgabe führen. Im Folgenden finden Sie einige Ratschläge zum Schreiben guter Eingabeaufforderungsvorlagen. Zunächst ist es wichtig, sich daran zu erinnern, dass das Modell darauf trainiert wurde, die Struktur echter Sätze zu lernen (kausale Sprachmodellierung). Stellen Sie daher am besten sicher, dass Ihre Eingabeaufforderungsvorlage in natürlicher Sprache grammatikalisch und strukturell korrekt ist. Zweitens profitiert dieses spezielle Modell von Dummy-Aufnahmen, um ihm die in der Antwort erwartete Struktur beizubringen, wie oben gezeigt. Drittens ist es immer ratsam, die Aufgabenleistung anhand einer Vielzahl von Vorlagen für Kandidatenaufforderungen zu untersuchen. Aufforderungsquelle und Natürliche Anweisungen sind zwei Open-Source-Frameworks zur Standardisierung von Eingabeaufforderungsvorlagen und bieten eine Vielzahl von Beispieleingabeaufforderungen, die für vorhandene Modellierungsaufgaben verwendet werden. Zusätzlich Anhang B des AlexaTM 20B-Papier stellt die Eingabeaufforderungsvorlagen bereit, die zum Generieren der in der Arbeit präsentierten Ergebnisse verwendet werden. Es gibt ein wachsendes Teilgebiet, das der automatischen Erstellung und dem Lernen der besten Eingabeaufforderungen für eine Aufgabe gewidmet ist, einschließlich sowohl natürlichsprachlicher als auch kontinuierlicher Eingabeaufforderungen. Dies würde den Rahmen dieses Tutorials sprengen.

Zusammenfassung

In diesem Beitrag haben wir gezeigt, wie das AlexaTM 20B-Modell auf einem SageMaker-Endpunkt bereitgestellt und Inferenz ausgeführt wird. Sie können das AlexaTM 20B-Modell für kontextbezogenes Lernen für eine Vielzahl von Lernaufgaben mit wenigen Aufnahmen verwenden. Weitere Informationen zu AlexaTM 20B finden Sie unter Das Alexa-Modell mit 20B-Parametern setzt neue Maßstäbe beim Lernen mit wenigen Aufnahmen oder das Original Krepppapier.

Die Autoren möchten die technischen Beiträge von Maciej Rudnicki, Jakub Debski, Ashish Khetan, Anastasiia Dubinina, Vitaliy Korolev, Karl Albertsen, Saleh Soltan und Mariusz Momotko zur Ermöglichung dieses Starts anerkennen.


Über JumpStart

JumpStart ist der Hub für maschinelles Lernen (ML) von Amazon SageMaker, der über 350 vortrainierte Modelle, integrierte Algorithmen und vorgefertigte Lösungsvorlagen bietet, um Ihnen den schnellen Einstieg in ML zu erleichtern. JumpStart hostet hochmoderne Modelle von beliebten Modell-Hubs wie TensorFlow, PyTorch, Hugging Face und MXNet, die beliebte ML-Aufgaben wie Objekterkennung, Textklassifizierung und Textgenerierung unterstützen. Die ML-Forschungsgemeinschaft hat große Anstrengungen unternommen, um einen Großteil der kürzlich entwickelten Modelle öffentlich zugänglich zu machen. JumpStart soll Ihnen helfen, die richtigen ML-Modelle und -Algorithmen zu finden und sofort mit dem Erstellen von Modellen zu beginnen. JumpStart bietet insbesondere die folgenden Vorteile:

  • Einfacher Zugriff mit der Benutzeroberfläche und dem SDK – Sie können auf Modelle und Algorithmen in JumpStart programmgesteuert mit dem SageMaker Python SDK oder über die JumpStart-Benutzeroberfläche in Amazon SageMaker Studio zugreifen. Derzeit ist AlexaTM 20B nur über das SageMaker Python SDK zugänglich.
  • Integrierte SageMaker-Algorithmen – JumpStart bietet über 350 integrierte Algorithmen und vortrainierte Modelle zusammen mit entsprechenden Trainingsskripts (falls unterstützt), Inferenzskripts und Beispiel-Notebooks. Skripte sind für jedes Framework und jede Aufgabe optimiert und bieten Funktionen wie GPU-Unterstützung, automatische Modelloptimierung und inkrementelles Training. Skripte werden auch mit SageMaker-Instanzen und -Funktionen getestet, damit Sie nicht auf Kompatibilitätsprobleme stoßen.
  • Vorgefertigte Lösungen – JumpStart bietet eine Reihe von 23 Lösungen für gängige ML-Anwendungsfälle, wie z. B. Bedarfsprognosen sowie Industrie- und Finanzanwendungen, die Sie mit nur wenigen Klicks bereitstellen können. Lösungen sind End-to-End-ML-Anwendungen, die verschiedene AWS-Services aneinanderreihen, um einen bestimmten geschäftlichen Anwendungsfall zu lösen. Sie verwenden AWS CloudFormation-Vorlagen und Referenzarchitekturen für eine schnelle Bereitstellung, was bedeutet, dass sie vollständig anpassbar sind.
  • Support – SageMaker bietet eine Reihe von Supportleistungen, z. B. die Pflege aktueller Versionen, wenn neue SageMaker-Funktionen oder Deep-Learning-Container-Versionen veröffentlicht werden, und die Erstellung von Dokumentationen zur Verwendung von JumpStart-Inhalten in einer SageMaker-Umgebung.

Um mehr über JumpStart zu erfahren und wie Sie vortrainierte Open-Source-Modelle für eine Vielzahl anderer ML-Aufgaben verwenden können, sehen Sie sich Folgendes an AWS re:Invent 2020-Video.


Über die Autoren

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.Vivek Madan ist ein angewandter Wissenschaftler im Amazon SageMaker JumpStart-Team. Er promovierte an der University of Illinois at Urbana-Champaign und war Postdoktorand an der Georgia Tech. Er ist ein aktiver Forscher in den Bereichen maschinelles Lernen und Algorithmendesign und hat Artikel auf Konferenzen von EMNLP, ICLR, COLT, FOCS und SODA veröffentlicht.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.Jack FitzGerald ist ein leitender angewandter Wissenschaftler bei Alexa AI, wo er sich derzeit auf die Modellierung großer Sprachen, die Modellierung mehrsprachiger Texte und maschinelle Lernoperationen konzentriert.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.Joao Moura ist AI/ML Specialist Solutions Architect bei Amazon Web Services. Er konzentriert sich hauptsächlich auf NLP-Anwendungsfälle und hilft Kunden, das Training und die Bereitstellung von Deep-Learning-Modellen zu optimieren. Er ist auch ein aktiver Befürworter von Low-Code-ML-Lösungen und ML-spezialisierter Hardware.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai. Juni gewonnen ist Produktmanager bei SageMaker JumpStart und integrierten Algorithmen. Er konzentriert sich darauf, ML-Inhalte für SageMaker-Kunden leicht auffindbar und nutzbar zu machen.

AlexaTM 20B ist jetzt in Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence verfügbar. Vertikale Suche. Ai.Pulkit Kapur ist der Produktleiter für das Alexa Teacher Model-Programm mit Alexa AI, das sich auf generalisierte Intelligenz und Anwendungen der multimodalen Multitasking-Grundlagenmodelle von Alexa konzentriert.

Zeitstempel:

Mehr von AWS Maschinelles Lernen