Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart

Σήμερα, ανακοινώνουμε τη δημόσια διαθεσιμότητα των υπερσύγχρονων προϊόντων της Amazon Alexa Teacher Model με 20 δισεκατομμύρια παραμέτρους  (AlexaTM 20B) μέσω Amazon SageMaker JumpStart, ο κόμβος μηχανικής μάθησης του SageMaker. Το AlexaTM 20B είναι ένα πολυγλωσσικό μοντέλο γλώσσας μεγάλης κλίμακας αλληλουχίας σε ακολουθία (seq2seq) που αναπτύχθηκε από την Amazon. Μπορείτε να χρησιμοποιήσετε το AlexaTM 20B για ένα ευρύ φάσμα περιπτώσεων χρήσης του κλάδου, από τη σύνοψη οικονομικών αναφορών έως την απάντηση ερωτήσεων για chatbot εξυπηρέτησης πελατών. Μπορεί να εφαρμοστεί ακόμα και όταν υπάρχουν μόνο λίγα διαθέσιμα παραδείγματα εκπαίδευσης ή ακόμα και καθόλου. AlexaTM 20B υπερέχει 175 δις Μοντέλο GPT-3 σε εργασίες μάθησης μηδενικής λήψης, όπως το SuperGLUE και δείχνει επιδόσεις αιχμής για πολύγλωσσες εργασίες μηδενικής λήψης, όπως το XNLI.

Σε αυτήν την ανάρτηση, παρέχουμε μια επισκόπηση του τρόπου ανάπτυξης και εκτέλεσης συμπερασμάτων με το μοντέλο AlexaTM 20B μέσω προγραμματισμού μέσω των JumpStart API, που είναι διαθέσιμα στο SDK SageMaker Python. Δίνουμε παράδειγμα πώς μπορείτε να χρησιμοποιήσετε αυτό το μοντέλο για να μεταφράσετε μεταξύ πολλών γλωσσών, να συνοψίσετε κείμενο μεγάλης μορφής, να απαντήσετε σε ερωτήσεις με βάση ένα δεδομένο πλαίσιο και να δημιουργήσετε κείμενο που δεν φαίνεται να διακρίνεται από το κείμενο που έχει γραφτεί από ανθρώπους.

AlexaTM 20B και εκμάθηση εντός πλαισίου

Το πρόγραμμα Alexa Teacher Model (AlexaTM) από την Amazon Alexa AI έχει σχεδιαστεί για τη δημιουργία μεγάλης κλίμακας, πολύγλωσσων μοντέλων βαθιάς μάθησης (κυρίως βασισμένα σε Transformer), με στόχο τη βελτίωση της γενίκευσης και του χειρισμού της σπανιότητας δεδομένων για εργασίες κατάντη. Με μεγάλης κλίμακας προ-κατάρτιση, τα μοντέλα δασκάλων μπορούν να γενικεύονται καλά για να μαθαίνουν νέες εργασίες από αραιά δεδομένα και να βοηθούν τους προγραμματιστές να βελτιώσουν την απόδοση σε εργασίες κατάντη. Το AlexaTM 20B έδειξε ανταγωνιστική απόδοση σε σημεία αναφοράς και εργασίες επεξεργασίας κοινής φυσικής γλώσσας (NLP), όπως η αυτόματη μετάφραση, η παραγωγή δεδομένων και η σύνοψη.

Η χρήση μοντέλων θεμελίωσης όπως το AlexaTM 20B μειώνει την ανάγκη για δαπανηρή προεκπαίδευση μοντέλων και παρέχει ένα σημείο εκκίνησης τελευταίας τεχνολογίας για την ανάπτυξη μοντέλων εργασιών με λιγότερη προσπάθεια και λιγότερα δεδομένα εκπαίδευσης για συγκεκριμένες εργασίες. Μία από τις βασικές ικανότητες των μοντέλων θεμελίωσης είναι ότι μπορούμε να διδάξουμε σε ένα μοντέλο να εκτελεί νέες εργασίες, όπως ερωτήσεις και απαντήσεις σε διαφορετικές γλώσσες, με πολύ μικρές ποσότητες παραδειγμάτων εισαγωγής και δεν απαιτούνται λεπτομέρεια ή ενημερώσεις κλίσης. Αυτό είναι γνωστό ως μάθηση εντός πλαισίου. Με λίγα μόνο παραδείγματα μιας νέας εργασίας που παρέχεται ως πλαίσιο για συμπέρασμα, το μοντέλο AlexaTM 20B μπορεί να μεταφέρει γνώση από ό,τι έχει μάθει κατά τη διάρκεια μεγάλης κλίμακας προεκπαίδευσης, ακόμη και σε διάφορες γλώσσες. Αυτό ονομάζεται μάθηση με λίγα βήματα. Σε ορισμένες περιπτώσεις, το μοντέλο μπορεί να αποδώσει καλά χωρίς καθόλου δεδομένα εκπαίδευσης, με μόνο μια εξήγηση του τι πρέπει να προβλεφθεί. Αυτό ονομάζεται μηδενική εκμάθηση. Για παράδειγμα, ας υποθέσουμε ότι χρησιμοποιούμε το AlexaTM 20B για τη δημιουργία φυσικής γλώσσας μίας λήψης. Η είσοδος που μεταβιβάζεται στο μοντέλο είναι το παράδειγμα εκπαίδευσης με τη μορφή ζευγών χαρακτηριστικών-τιμών, μαζί με την αντίστοιχη αφήγηση κειμένου εξόδου. Το παράδειγμα δοκιμής προσαρτάται στη συνέχεια για να σχηματίσει την πλήρη προτροπή εισαγωγής, όπως φαίνεται στο παρακάτω σχήμα.

Για να μάθετε περισσότερα για το μοντέλο, ρίξτε μια ματιά Το μοντέλο Alexa με παράμετρο 20B θέτει νέα σημάδια στη μάθηση με λίγες λήψεις ή η αρχική χαρτί.

Η χρήση του AlexaTM 20B διατίθεται για μη εμπορική χρήση και καλύπτεται από το Συμφωνία άδειας χρήσης για το μοντέλο εκπαιδευτικού Alexa.

Επισκόπηση λύσεων

Οι ακόλουθες ενότητες παρέχουν μια επίδειξη βήμα προς βήμα σχετικά με τον τρόπο ανάπτυξης του μοντέλου, εκτέλεσης συμπερασμάτων και εκμάθησης εντός του περιβάλλοντος για την επίλυση μαθησιακών εργασιών λίγων βολών.

Σημειώστε ότι η παρακάτω ενότητα περιέχει αποσπάσματα κώδικα. ο πλήρης κωδικός με όλα τα βήματα σε αυτήν την επίδειξη είναι διαθέσιμος στο συνοδευτικό σημειωματάριο: Εκμάθηση σε περιβάλλον με το AlexaTM 20B στο SageMaker JumpStart.

Αναπτύξτε το μοντέλο

Για να χρησιμοποιήσετε ένα μοντέλο μεγάλης γλώσσας στο SageMaker, χρειάζεστε ένα σενάριο εξαγωγής συμπερασμάτων ειδικά για το μοντέλο, το οποίο περιλαμβάνει βήματα όπως φόρτωση μοντέλου, παραλληλοποίηση και άλλα. Πρέπει επίσης να δημιουργήσετε δοκιμές από άκρο σε άκρο για σενάρια, μοντέλα και τους επιθυμητούς τύπους παρουσίας για να επιβεβαιώσετε ότι και τα τρία μπορούν να λειτουργήσουν μαζί. Το JumpStart καταργεί αυτήν την προσπάθεια παρέχοντας έτοιμα προς χρήση σενάρια που έχουν δοκιμαστεί άρτια.

Το SageMaker σάς δίνει τη δυνατότητα να εκτελείτε εκτενώς τα δοχεία Docker για εκπαίδευση και εξαγωγή συμπερασμάτων. Το JumpStart χρησιμοποιεί αυτά τα διαθέσιμα ειδικά πλαίσια SageMaker Deep Learning Containers (DLCs). Ξεκινάμε με την ανάκτηση του βελτιστοποιημένου DLC (deploy_image_uri) χρησιμοποιώντας την model_id. Στη συνέχεια φέρνουμε το model_uri που περιέχει τις παραμέτρους του μοντέλου, μαζί με σενάρια χειρισμού συμπερασμάτων και τυχόν σχετικές εξαρτήσεις. Στη συνέχεια, δημιουργούμε ένα παράδειγμα μοντέλου στο SageMaker και αναπτύξτε το σε ένα τελικό σημείο σε πραγματικό χρόνο. Δείτε τον παρακάτω κώδικα:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

Η ανάπτυξη του AlexaTM 20B απαιτεί μια παρουσία που υποστηρίζεται από GPU με τουλάχιστον 50 GB μνήμης CPU και τουλάχιστον 42 GB μνήμης GPU. Το SageMaker παρέχει πολλές τέτοιες περιπτώσεις που υποστηρίζουν την εξαγωγή συμπερασμάτων σε πραγματικό χρόνο. Δοκιμάσαμε αυτό το διάλυμα σε τρεις περιπτώσεις: ml.g4dn.12xlarge, ml.p3.8xlarge, ml.p3.16xlarge. Δείτε τον παρακάτω κώδικα:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

Στη συνέχεια, αναπτύσσουμε το μοντέλο σε ένα τελικό σημείο SageMaker σε πραγματικό χρόνο:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

Το AlexaTM 20B απαιτεί 40 GB χώρου στο δίσκο στο κοντέινερ συμπερασμάτων. Μια παρουσία ml.g4dn.12xlarge πληροί αυτήν την απαίτηση. Για παράδειγμα τύπους ml.p3.8xlarge και ml.p3.16xlarge, επισυνάπτουμε ένα Κατάστημα Amazon Elastic Block Ένταση (Amazon EBS) για να χειριστείτε το μεγάλο μέγεθος μοντέλου. Ως εκ τούτου, ορίσαμε volume_size = None κατά την ανάπτυξη σε ml.g4dn.12xlarge και volume_size=256 κατά την ανάπτυξη σε ml.p3.8xlarge ή ml.p3.16xlarge.

Η ανάπτυξη του μοντέλου μπορεί να διαρκέσει έως και 10 λεπτά. Αφού αναπτυχθεί το μοντέλο, μπορούμε να λάβουμε προβλέψεις από αυτό σε πραγματικό χρόνο!

Εκτέλεση συμπερασμάτων

Το AlexaTM 20B είναι ένα μοντέλο δημιουργίας κειμένου το οποίο, δεδομένης μιας μερικής ακολουθίας (μια πρόταση ή κομμάτι κειμένου), δημιουργεί το επόμενο σύνολο λέξεων. Το παρακάτω απόσπασμα κώδικα σάς δίνει μια γεύση του τρόπου υποβολής ερωτημάτων στο τελικό σημείο που αναπτύξαμε και ανάλυσης των εξόδων για εργασία αυτόματης συμπλήρωσης. Για να στείλουμε αιτήματα σε ένα αναπτυγμένο μοντέλο, χρησιμοποιούμε ένα λεξικό JSON κωδικοποιημένο σε μορφή UTF-8. Η απόκριση τελικού σημείου είναι ένα αντικείμενο JSON που περιέχει μια λίστα δημιουργημένων κειμένων.

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

Στη συνέχεια, ρωτάμε το τελικό σημείο και αναλύουμε την απάντηση σε ένα δείγμα κειμένου εισαγωγής:

# text can be a single string or a list of strings
text = “[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, “max_length”: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: “travel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.”

Το AlexaTM 20B υποστηρίζει επί του παρόντος 10 παραμέτρους δημιουργίας κειμένου κατά την εξαγωγή συμπερασμάτων: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_p, να seed. Για λεπτομερείς πληροφορίες σχετικά με τις έγκυρες τιμές για κάθε παράμετρο και τον αντίκτυπό τους στην έξοδο, δείτε το συνοδευτικό σημειωματάριο: Εκμάθηση σε περιβάλλον με το AlexaTM 20B στο SageMaker JumpStart.

Εκμάθηση εντός πλαισίου

Η εκμάθηση εντός περιβάλλοντος αναφέρεται στα εξής: παρέχουμε στο μοντέλο γλώσσας μια προτροπή, η οποία αποτελείται από εκπαίδευση ζευγών εισόδου-εξόδου που επιδεικνύουν την εργασία. Προσθέτουμε μια δοκιμαστική είσοδο στην προτροπή και επιτρέπουμε στο γλωσσικό μοντέλο να κάνει προβλέψεις εξαρτώντας από την προτροπή και προβλέποντας τα επόμενα διακριτικά ή λέξεις. Αυτή είναι μια εξαιρετικά αποτελεσματική τεχνική για την επίλυση λίγων προβλημάτων εκμάθησης βολής, στην οποία μαθαίνουμε μια εργασία από μερικά δείγματα εκπαίδευσης.

Στη συνέχεια, δείχνουμε πώς μπορείτε να χρησιμοποιήσετε το AlexaTM 20B για πολλές εργασίες 1-shot και zero-shot μέσω της εκμάθησης στο πλαίσιο. Σε αντίθεση με τα προηγούμενα μοντέλα αλληλουχίας σε ακολουθία, το AlexaTM 20B εκπαιδεύτηκε στη μοντελοποίηση αιτιώδους γλώσσας εκτός από την αποθορυβοποίηση, γεγονός που το καθιστά ένα καλό μοντέλο για εκμάθηση εντός του πλαισίου.

Σύνοψη κειμένου 1-πλάνο

Η σύνοψη κειμένου είναι η συντόμευση των δεδομένων και η δημιουργία μιας περίληψης που αντιπροσωπεύει τις πιο σημαντικές πληροφορίες που υπάρχουν στο αρχικό κείμενο. Η σύνοψη κειμένου 1-shot αναφέρεται στο περιβάλλον όπου μαθαίνουμε να συνοψίζουμε το κείμενο με βάση ένα μόνο δείγμα εκπαίδευσης. Ο παρακάτω κώδικας είναι ένα δείγμα σύνοψης κειμένου από το Δεδομένα XSUM:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly £400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

Χρησιμοποιούμε την ακόλουθη προτροπή για σύνοψη όταν παρέχεται μόνο ένα δείγμα εκπαίδευσης. Το κείμενο που δημιουργείται από το μοντέλο ερμηνεύεται ως η προβλεπόμενη περίληψη του δοκιμαστικού άρθρου.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η έξοδος έχει ως εξής:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

1-shot γενιά φυσικής γλώσσας

Η παραγωγή φυσικής γλώσσας είναι το καθήκον της παραγωγής αφηγήσεων κειμένου με βάση το εισαγόμενο κείμενο. Το παρακάτω δείγμα δείχνει ένα δείγμα εκπαίδευσης από το Δεδομένα E2E:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

Χρησιμοποιούμε την ακόλουθη προτροπή για τη δημιουργία φυσικής γλώσσας όταν παρέχεται μόνο ένα δείγμα εκπαίδευσης (1-shot). Το κείμενο που δημιουργείται από το μοντέλο ερμηνεύεται ως η προβλεπόμενη αφήγηση κειμένου για τη δοκιμαστική εισαγωγή (test_inp).

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η έξοδος έχει ως εξής:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

Μηχανική μετάφραση 1 βολής

Η μηχανική μετάφραση είναι το έργο της μετάφρασης κειμένου από τη μια γλώσσα στην άλλη. Το παρακάτω παράδειγμα δείχνει ένα δείγμα εκπαίδευσης από το Δεδομένα WMT19 στο οποίο πρέπει να μεταφράσουμε από τα γερμανικά στα αγγλικά:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingärtner bewirtschaften den einstigen Grund von Bauern."

Χρησιμοποιούμε την ακόλουθη προτροπή για αυτόματη μετάφραση όταν παρέχεται μόνο ένα δείγμα εκπαίδευσης (1-shot). Το κείμενο που δημιουργείται από το μοντέλο ερμηνεύεται ως η μετάφραση της εισόδου δοκιμής (test_inp).

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η έξοδος έχει ως εξής:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

Απάντηση εξαγωγικών ερωτήσεων μηδενικής βολής

Η εξαγωγή απάντησης ερωτήσεων είναι το καθήκον της εύρεσης της απάντησης σε μια ερώτηση από την παράγραφο του περιβάλλοντος. Το παρακάτω είναι ένα παράδειγμα ενός πλαισίου και μιας ερώτησης από το Σύνολο δεδομένων SQuAD v2:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

Σημειώστε ότι δεν έχουμε δείγματα εκπαίδευσης για την εργασία μας. Αντίθετα, δημιουργούμε μια εικονική ερώτηση σχετικά με την τελευταία λέξη στην προτροπή , με βάση το test_context (εικονική βολή). Ως εκ τούτου, στην πραγματικότητα απαντάμε σε εξαγωγικές ερωτήσεις μηδενικής βολής.

Χρησιμοποιούμε την ακόλουθη προτροπή για απάντηση εξαγωγικών ερωτήσεων όταν δεν παρέχεται δείγμα εκπαίδευσης. Το κείμενο που δημιουργείται από το μοντέλο ερμηνεύεται ως η απάντηση στην ερώτηση του τεστ.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.

Η έξοδος έχει ως εξής:

AlexaTM 20B output: 'France'

Άμεση Μηχανική

Η άμεση μηχανική μπορεί μερικές φορές να είναι τέχνη. Ακόμη και μικρές αλλαγές στο πρότυπο προτροπής μπορούν να οδηγήσουν σε σημαντικές αλλαγές στην απόδοση του μοντέλου σε μια συγκεκριμένη εργασία. Ακολουθούν μερικές συμβουλές για τη σύνταξη καλών προτύπων προτροπής. Πρώτον, είναι σημαντικό να θυμάστε ότι το μοντέλο εκπαιδεύτηκε για να μάθει τη δομή των πραγματικών προτάσεων (αιτιακή μοντελοποίηση γλώσσας). Ως εκ τούτου, είναι καλύτερο να βεβαιωθείτε ότι το πρότυπο προτροπής είναι γραμματικά και δομικά σωστό στη φυσική γλώσσα. Δεύτερον, αυτό το συγκεκριμένο μοντέλο επωφελείται από εικονικές λήψεις για να του διδάξει τη δομή που αναμένεται στην απάντηση, όπως καταδείχθηκε παραπάνω. Τρίτον, συνιστάται πάντα να εξετάζετε την απόδοση των εργασιών σε μια ποικιλία υποψηφίων προτύπων προτροπής. Promptsource και  Φυσικές οδηγίες είναι δύο πλαίσια ανοιχτού κώδικα για την τυποποίηση προτύπων προτροπών και παρέχουν μια ποικιλία παραδειγμάτων προτροπών που χρησιμοποιούνται για υπάρχουσες εργασίες μοντελοποίησης. Επιπλέον, το Παράρτημα Β του Χαρτί AlexaTM 20B παρέχει τα πρότυπα προτροπής που χρησιμοποιούνται για τη δημιουργία των αποτελεσμάτων που παρουσιάζονται στο έγγραφο. Υπάρχει ένα αυξανόμενο υποπεδίο αφιερωμένο στην αυτόματη δημιουργία και εκμάθηση των καλύτερων προτροπών για μια εργασία, συμπεριλαμβανομένων τόσο της φυσικής γλώσσας όσο και των συνεχών προτροπών. Αυτό είναι πέρα ​​από το πεδίο αυτού του σεμιναρίου.

Συμπέρασμα

Σε αυτήν την ανάρτηση, δείξαμε πώς να αναπτύξετε το μοντέλο AlexaTM 20B σε ένα τελικό σημείο του SageMaker και να εκτελέσετε συμπέρασμα. Μπορείτε να χρησιμοποιήσετε το μοντέλο AlexaTM 20B για μάθηση εντός του πλαισίου για μια ποικιλία εργασιών μάθησης με λίγα βήματα. Για να μάθετε περισσότερα σχετικά με το AlexaTM 20B, ανατρέξτε στο Το μοντέλο Alexa με παράμετρο 20B θέτει νέα σημάδια στη μάθηση με λίγες λήψεις ή η αρχική χαρτί.

Οι συγγραφείς θα ήθελαν να αναγνωρίσουν την τεχνική συμβολή των Maciej Rudnicki, Jakub Debski, Ashish Khetan, Anastasiia Dubinina, Vitaliy Korolev, Karl Albertsen, Saleh Soltan και Mariusz Momotko για να γίνει δυνατή αυτή η εκτόξευση.


Σχετικά με το JumpStart

Το JumpStart είναι ο κόμβος μηχανικής εκμάθησης (ML) του Amazon SageMaker που προσφέρει πάνω από 350 προεκπαιδευμένα μοντέλα, ενσωματωμένους αλγόριθμους και προκατασκευασμένα πρότυπα λύσεων για να σας βοηθήσει να ξεκινήσετε γρήγορα με την ML. Το JumpStart φιλοξενεί μοντέλα τελευταίας τεχνολογίας από δημοφιλείς κόμβους μοντέλων όπως το TensorFlow, το PyTorch, το Hugging Face και το MXNet, τα οποία υποστηρίζουν δημοφιλείς εργασίες ML, όπως ανίχνευση αντικειμένων, ταξινόμηση κειμένου και δημιουργία κειμένου. Η ερευνητική κοινότητα ML έχει καταβάλει μεγάλη προσπάθεια για να καταστήσει δημόσια την πλειονότητα των μοντέλων που αναπτύχθηκαν πρόσφατα για χρήση. Το JumpStart στοχεύει να σας βοηθήσει να βρείτε σωστά τα μοντέλα και τους αλγόριθμους ML και να ξεκινήσετε αμέσως τη δημιουργία μοντέλων. Συγκεκριμένα, το JumpStart παρέχει τα ακόλουθα οφέλη:

  • Εύκολη πρόσβαση με το UI και το SDK – Μπορείτε να αποκτήσετε πρόσβαση σε μοντέλα και αλγόριθμους στο JumpStart μέσω προγραμματισμού χρησιμοποιώντας το SageMaker Python SDK ή μέσω του JumpStart UI στο Amazon SageMaker Studio. Προς το παρόν, το AlexaTM 20B είναι προσβάσιμο μόνο μέσω του SageMaker Python SDK.
  • Ενσωματωμένοι αλγόριθμοι SageMaker – Το JumpStart παρέχει πάνω από 350 ενσωματωμένους αλγόριθμους και προεκπαιδευμένα μοντέλα, μαζί με αντίστοιχα σενάρια εκπαίδευσης (εάν υποστηρίζονται), σενάρια εξαγωγής συμπερασμάτων και παραδείγματα σημειωματάριων. Τα σενάρια βελτιστοποιούνται για κάθε πλαίσιο και εργασία και παρέχουν δυνατότητες όπως υποστήριξη GPU, αυτόματο συντονισμό μοντέλου και σταδιακή εκπαίδευση. Τα σενάρια ελέγχονται επίσης με παρουσίες και δυνατότητες του SageMaker, ώστε να μην αντιμετωπίζετε προβλήματα συμβατότητας.
  • Προκατασκευασμένες λύσεις – Το JumpStart παρέχει ένα σύνολο 23 λύσεων για συνήθεις περιπτώσεις χρήσης ML, όπως πρόβλεψη ζήτησης και βιομηχανικές και οικονομικές εφαρμογές, τις οποίες μπορείτε να αναπτύξετε με λίγα μόνο κλικ. Οι λύσεις είναι εφαρμογές ML από άκρο σε άκρο που συνδυάζουν διάφορες υπηρεσίες AWS για να λύσουν μια συγκεκριμένη περίπτωση επιχειρηματικής χρήσης. Χρησιμοποιούν πρότυπα AWS CloudFormation και αρχιτεκτονικές αναφοράς για γρήγορη ανάπτυξη, πράγμα που σημαίνει ότι είναι πλήρως προσαρμόσιμα.
  • Υποστήριξη – Το SageMaker παρέχει μια σειρά υποστήριξης, όπως τη διατήρηση ενημερωμένων εκδόσεων όταν κυκλοφορούν νέες δυνατότητες του SageMaker ή οι εκδόσεις του Deep Learning Container και δημιουργία τεκμηρίωσης σχετικά με τον τρόπο χρήσης του περιεχομένου του JumpStart σε περιβάλλον SageMaker.

Για να μάθετε περισσότερα σχετικά με το JumpStart και πώς μπορείτε να χρησιμοποιήσετε προεκπαιδευμένα μοντέλα ανοιχτού κώδικα για μια ποικιλία άλλων εργασιών ML, δείτε τα παρακάτω Βίντεο AWS re:Invent 2020.


Σχετικά με τους Συγγραφείς

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Δρ Vivek Madan είναι Εφαρμοσμένος Επιστήμονας με την ομάδα Amazon SageMaker JumpStart. Πήρε το διδακτορικό του από το Πανεπιστήμιο του Ιλινόις στο Urbana-Champaign και ήταν μεταδιδακτορικός ερευνητής στο Georgia Tech. Είναι ενεργός ερευνητής στη μηχανική μάθηση και στο σχεδιασμό αλγορίθμων και έχει δημοσιεύσει εργασίες σε συνέδρια EMNLP, ICLR, COLT, FOCS και SODA.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Τζακ Φιτζ Τζέραλντ είναι ανώτερος εφαρμοσμένος επιστήμονας με την Alexa AI, όπου επί του παρόντος εστιάζει στη μοντελοποίηση μεγάλων γλωσσών, στη μοντελοποίηση πολύγλωσσων κειμένων και στις λειτουργίες μηχανικής μάθησης.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Τζοάο Μούρα είναι Αρχιτέκτονας Ειδικών Λύσεων AI/ML στο Amazon Web Services. Επικεντρώνεται κυρίως σε περιπτώσεις χρήσης NLP και βοηθά τους πελάτες να βελτιστοποιήσουν την εκπαίδευση και την ανάπτυξη μοντέλων βαθιάς μάθησης. Είναι επίσης ενεργός υποστηρικτής των λύσεων ML χαμηλού κώδικα και του υλικού εξειδικευμένου για ML.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται. Ο Ιούνιος νίκησε είναι διαχειριστής προϊόντων με το SageMaker JumpStart και τους ενσωματωμένους αλγόριθμους. Επικεντρώνεται στο να κάνει τα περιεχόμενα ML εύκολα ανιχνεύσιμα και χρηστικά για τους πελάτες του SageMaker.

Το AlexaTM 20B είναι πλέον διαθέσιμο στο Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Πούλκιτ Καπούρ είναι το κύριο προϊόν για το πρόγραμμα Alexa Teacher Model με Alexa AI, που εστιάζει στη γενικευμένη νοημοσύνη και τις εφαρμογές των πολυτροπικών μοντέλων θεμελίωσης πολλαπλών εργασιών της Alexa.

Σφραγίδα ώρας:

Περισσότερα από Μηχανική εκμάθηση AWS