Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού της Amazon

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού της Amazon

Την περασμένη εβδομάδα, Ινστιτούτο Τεχνολογικής Καινοτομίας (TII) ξεκίνησε TII Falcon LLM, ένα θεμελιώδες μοντέλο μεγάλης γλώσσας ανοιχτού κώδικα (LLM). Εκπαιδεύτηκε σε 1 τρισεκατομμύριο μάρκες με Amazon Sage Maker, το Falcon μπορεί να υπερηφανεύεται για την κορυφαία απόδοση (#1 στο Κορυφαίος πίνακας Hugging Face τη στιγμή της γραφής) ενώ είναι σχετικά ελαφρύ και λιγότερο δαπανηρό για φιλοξενία από άλλα LLM όπως το llama-65B. Σε αυτήν την ανάρτηση, δείχνουμε πώς να αναπτύξετε το Falcon για εφαρμογές όπως η κατανόηση γλώσσας και η αυτοματοποιημένη βοήθεια γραφής χρησιμοποιώντας μεγάλα δοχεία εκμάθησης συμπερασμάτων μοντέλων στο SageMaker.

Το Falcon προσγειώθηκε στο SageMaker

Το TII είναι ο οργανισμός εφαρμοσμένης έρευνας εντός του Άμπου Ντάμπι Συμβούλιο Προηγμένης Τεχνολογίας; Η ομάδα επιστημόνων, ερευνητών και μηχανικών της είναι αφιερωμένη στην ανακάλυψη μετασχηματιστικών τεχνολογιών και στην ανάπτυξη επιστημονικών ανακαλύψεων που θα αποδείξουν το μέλλον της κοινωνίας μας. Νωρίτερα αυτό το έτος, η TII ξεκίνησε να εκπαιδεύει ένα υπερσύγχρονο, ανοιχτού κώδικα LLM και χρησιμοποίησε την υποδομή, τα εργαλεία και την τεχνογνωσία του SageMaker για να ολοκληρώσει τη δουλειά (για να μάθει περισσότερα για το πώς εκπαιδεύτηκε αυτό το μοντέλο στο SageMaker , αναφέρομαι σε Το Technology Innovation Institute εκπαιδεύει το υπερσύγχρονο μοντέλο βάσης Falcon LLM 40B στο Amazon SageMaker). Το αποτέλεσμα αυτής της προσπάθειας είναι TII Falcon LLM.

Εκπαιδευμένο σε 1 τρισεκατομμύριο μάρκες, το Falcon μπορεί να υπερηφανεύεται για κορυφαίες επιδόσεις έναντι του Εξάρτημα αξιολόγησης μοντέλου γλώσσας AI Eleuther και αυτή τη στιγμή είναι #1 στο Κορυφαίος πίνακας Hugging Face για την ακρίβεια. Το μοντέλο είναι διαθέσιμο σε δύο διαφορετικά μεγέθη—Falcon-40B και Falcon-7B—και μπορεί να χρησιμοποιηθεί για κορυφαίες επιδόσεις σε εφαρμογές όπως η κατανόηση γλώσσας, οι εμπειρίες συνομιλίας και η αυτοματοποιημένη βοήθεια γραφής. Αυτή η ανάρτηση θα σας βοηθήσει να ξεκινήσετε με την ανάπτυξη του Falcon στο SageMaker για συμπεράσματα υψηλής ακρίβειας σε αυτούς τους τύπους τομέων.

Τα μεγάλα DLC συμπερασμάτων SageMaker απλοποιούν τη φιλοξενία LLM

Η φιλοξενία LLM όπως το Falcon-40B και το Falcon-7B μπορεί να είναι προκλητική. Τα μεγαλύτερα μοντέλα είναι συχνά πιο ακριβή επειδή περιλαμβάνουν δισεκατομμύρια παραμέτρους, αλλά το μέγεθός τους μπορεί επίσης να έχει ως αποτέλεσμα πιο αργό λανθάνοντα χρόνο συμπερασμάτων ή χειρότερη απόδοση. Η φιλοξενία ενός LLM μπορεί να απαιτεί περισσότερη μνήμη GPU και βελτιστοποιημένους πυρήνες για την επίτευξη αποδεκτών επιδόσεων. Για να περιπλέκονται ακόμη περισσότερο τα πράγματα, αν και μικρότερα μοντέλα όπως το Falcon-7B μπορούν γενικά να χωρέσουν σε μια ενιαία GPU, όπως μια παρουσία NVIDIA A10G που τροφοδοτεί τύπους παρουσίας AWS G5, τα μεγαλύτερα μοντέλα όπως το Falcon-40B δεν μπορούν. Όταν συμβεί αυτό, πρέπει να χρησιμοποιηθούν στρατηγικές όπως ο παραλληλισμός τανυστών για να τεμαχιστεί αυτό το μεγαλύτερο μοντέλο σε πολλά κομμάτια και να αξιοποιηθεί η μνήμη πολλών GPU. Οι λύσεις φιλοξενίας παλαιού τύπου που χρησιμοποιούνται για μικρότερα μοντέλα συνήθως δεν προσφέρουν αυτόν τον τύπο λειτουργικότητας, αυξάνοντας τη δυσκολία.

Τα δοχεία βαθιάς εκμάθησης (DLC) με μεγάλο μοντέλο συμπερασμάτων SageMaker (LMI) μπορούν να βοηθήσουν. Τα LMI DLC είναι μια ολοκληρωμένη λύση από άκρο σε άκρο για τη φιλοξενία LLM όπως το Falcon-40B. Στο μπροστινό μέρος, περιλαμβάνουν έναν διακομιστή μοντέλων υψηλής απόδοσης (DJL Serving) που έχει σχεδιαστεί για εξαγωγή συμπερασμάτων μεγάλων μοντέλων με χαρακτηριστικά όπως ροή διακριτικών και αυτόματη αναπαραγωγή μοντέλων σε μια παρουσία για αύξηση της απόδοσης. Στο backend, τα LMI DLC περιλαμβάνουν επίσης πολλούς παράλληλους κινητήρες μοντέλων υψηλής απόδοσης, όπως το DeepSpeed ​​και το FasterTransformer, που μπορούν να θρυμματίσουν και να διαχειριστούν παραμέτρους μοντέλου σε πολλές GPU. Αυτοί οι κινητήρες περιλαμβάνουν επίσης βελτιστοποιημένους πυρήνες για δημοφιλή μοντέλα μετασχηματιστών, οι οποίοι μπορούν να επιταχύνουν την εξαγωγή συμπερασμάτων έως και τρεις φορές πιο γρήγορα. Με τα LMI DLC, χρειάζεται απλώς να δημιουργήσετε ένα αρχείο διαμόρφωσης για να ξεκινήσετε με τη φιλοξενία LLM στο SageMaker. Για να μάθετε περισσότερα σχετικά με τα DLC SageMaker LMI, ανατρέξτε στο Παραλληλισμός μοντέλου και συμπέρασμα μεγάλου μοντέλου και το κομμάτι λίστα διαθέσιμων εικόνων. Μπορείτε επίσης να δείτε την προηγούμενη ανάρτησή μας σχετικά με τη φιλοξενία Bloom-175B στο SageMaker χρησιμοποιώντας LMI DLC.

Επισκόπηση λύσεων

Αυτή η ανάρτηση σας καθοδηγεί στον τρόπο φιλοξενίας του Falcon-40B χρησιμοποιώντας το DeepSpeed ​​στο SageMaker χρησιμοποιώντας LMI DLC. Το Falcon-40B απαιτεί τη χρήση πολλαπλών GPU A10, ενώ το Falcon-7B απαιτεί μόνο μία GPU. Ετοιμάσαμε επίσης παραδείγματα που μπορείτε να αναφέρετε στον κεντρικό υπολογιστή Falcon-40B και Falcon-7B χρησιμοποιώντας τόσο το DeepSpeed ​​όσο και το Accelerate. Μπορείτε να βρείτε τα παραδείγματα κώδικα μας στο GitHub.

Αυτό το παράδειγμα μπορεί να εκτελεστεί σε περιπτώσεις φορητών υπολογιστών SageMaker ή Στούντιο Amazon SageMaker τετράδια. Για τη φιλοξενία Falcon-40B με χρήση LMI και DeepSpeed, πρέπει να χρησιμοποιήσουμε μια παρουσία ml.g5.24xlarge. Αυτές οι περιπτώσεις παρέχουν 4x NVIDIA A10G GPU, οι οποίες υποστηρίζουν 96 GiB μνήμης GPU. Επιπλέον, ο κεντρικός υπολογιστής παρέχει 96 vCPU και 384 GiB μνήμης κεντρικού υπολογιστή. Το κοντέινερ LMI θα βοηθήσει στην αντιμετώπιση μεγάλου μέρους της αδιαφοροποίητης ανύψωσης βαρέων βαρών που σχετίζεται με τη φιλοξενία LLM, συμπεριλαμβανομένης της λήψης του μοντέλου και της κατάτμησης του τεχνουργήματος του μοντέλου, έτσι ώστε οι παράμετροί του να μπορούν να κατανεμηθούν σε πολλές GPU.

Τα ποσοστά για παρουσίες μηχανικής εκμάθησης (ML) του SageMaker μπορεί να διαφέρουν μεταξύ των λογαριασμών. Εάν λάβετε ένα σφάλμα που υποδεικνύει ότι έχετε υπερβεί το όριο σας για παρουσίες g5.24xlarge ενώ ακολουθείτε αυτήν την ανάρτηση, μπορείτε να αυξήσετε το όριο μέσω του Κονσόλα Service Quotas.

Περίληψη σημειωματάριων

Αρχικά, ξεκινάμε εγκαθιστώντας και εισάγοντας τις απαραίτητες εξαρτήσεις για το παράδειγμά μας. Χρησιμοποιούμε το Boto3 SDK καθώς και το SageMaker SDK. Σημειώστε ότι χρησιμοποιούμε Απλή υπηρεσία αποθήκευσης Amazon (Amazon S3) για να αποθηκεύσουμε τα τεχνουργήματα μοντέλων που χρειαζόμαστε για χρήση του SageMaker και του LMI, επομένως ρυθμίσαμε μια μεταβλητή προθέματος S3 ανάλογα. Δείτε τον παρακάτω κώδικα:

import sagemaker
import jinja2
from sagemaker import image_uris
import boto3
import os
import time
import json
from pathlib import Path
from sagemaker.utils import name_from_base role = sagemaker.get_execution_role() # execution role for the endpoint
sess = sagemaker.session.Session() # sagemaker session for interacting with different AWS APIs
bucket = sess.default_bucket() # bucket to house artifacts
model_bucket = sess.default_bucket() # bucket to house artifacts
s3_code_prefix_deepspeed = "hf-large-model-djl-/code_falcon40b/deepspeed" # folder within bucket where code artifact will go
region = sess._region_name
account_id = sess.account_id()
s3_client = boto3.client("s3")
sm_client = boto3.client("sagemaker")
smr_client = boto3.client("sagemaker-runtime")
jinja_env = jinja2.Environment()

Στη συνέχεια, δημιουργούμε έναν τοπικό φάκελο για τον χώρο εργασίας μας για να αποθηκεύουμε τα τεχνουργήματα του μοντέλου:

!mkdir -p code_falcon40b_deepspeed

Αρχικά δημιουργούμε ένα serving.properties αρχείο ρυθμίσεων στον τοπικό κατάλογο που δημιουργήσαμε. Αυτό serving.properties Το αρχείο υποδεικνύει στο κοντέινερ LMI και στη βιβλιοθήκη εξυπηρέτησης DJL στο μπροστινό μέρος ποιο μοντέλο βελτιστοποίησης παραλληλισμού και συμπερασμάτων θέλουμε να χρησιμοποιήσουμε. Μπορείτε να βρείτε τις επιλογές διαμόρφωσης για DeepSpeed ​​και Hugging Face Accelerate μέσα Διαμορφώσεις και ρυθμίσεις. Εδώ, σημειώστε ότι ορίσαμε το option.model_id παράμετρος για να ορίσετε από ποιο μοντέλο Hugging Face να τραβήξετε. Το SageMaker κάνει την εργασία με μοντέλα Hugging Face απλή και αυτή η μία σειρά είναι ό,τι χρειάζεστε. Επιπλέον, θέσαμε option.tensor_parallel_degree σε τιμή 4 επειδή έχουμε τέσσερις GPU στην παρουσία μας ml.g5.24xlarge. Αυτή η παράμετρος καθορίζει πόσες κατατμήσεις του μοντέλου θα δημιουργηθούν και θα διανεμηθούν. Λάβετε υπόψη ότι αν είχαμε χρησιμοποιήσει μια μεγαλύτερη παρουσία με οκτώ GPU, όπως ml.g5.48xlarge, και παρόλα αυτά ορίζαμε την τιμή 4, τότε το LMI θα δημιουργούσε αυτόματα δύο αντίγραφα του μοντέλου (δύο αντίγραφα κατανεμημένα σε τέσσερις GPU η καθεμία). Δείτε τον παρακάτω κώδικα:

%%writefile ./code_falcon40b_deepspeed/serving.properties
engine=Python
#to deploy falcon-40b-instruct set the model_id value to 'tiiuae/falcon-40b-instruct'
option.model_id=tiiuae/falcon-40b
option.tensor_parallel_degree=4
#option.s3url = {{s3url}}

Μπορείτε επίσης να ανταλλάξετε tiiuae/falcon-40b με tiiuae/falcon-40b-instruct αν ταιριάζει καλύτερα στις ανάγκες σας.

Περιλαμβάνουμε επίσης α requirements.txt αρχείο που μπορείτε να καθορίσετε για να εγκαταστήσετε τα πακέτα που χρειάζεστε:

%%writefile ./code_falcon40b_deepspeed/requirements.txt
einops
torch==2.0.1

Το τελευταίο πράγμα που χρειαζόμαστε είναι το model.py αρχείο που θα χρησιμοποιηθεί με το μοντέλο σας:

%%writefile ./code_falcon40b_deepspeed/model.py
from djl_python import Input, Output
import os
import torch
from transformers import pipeline, AutoModelForCausalLM, AutoTokenizer
from typing import Any, Dict, Tuple
import warnings predictor = None def get_model(properties): model_name = properties["model_id"] local_rank = int(os.getenv("LOCAL_RANK", "0")) model = AutoModelForCausalLM.from_pretrained( model_name, low_cpu_mem_usage=True, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map="auto", ) tokenizer = AutoTokenizer.from_pretrained(model_name) generator = pipeline( task="text-generation", model=model, tokenizer=tokenizer, device_map="auto" ) return generator def handle(inputs: Input) -> None: global predictor if not predictor: predictor = get_model(inputs.get_properties()) if inputs.is_empty(): # Model server makes an empty call to warmup the model on startup return None data = inputs.get_as_json() text = data["text"] text_length = data["text_length"] outputs = predictor(text, do_sample=True, min_length=text_length, max_length=text_length) result = {"outputs": outputs} return Output().add_as_json(result)

Αυτό είναι! Σε αυτό το σημείο, έχουμε δημιουργήσει όλα τα τεχνουργήματα που θα χρειαστείτε, αναπτύξτε το Falcon-40B με το DeepSpeed! Συσκευάζουμε τον κατάλογο σε ένα αρχείο *.tar.gz και τον ανεβάζουμε στο Amazon S3. Σημειώστε ότι το πραγματικό μοντέλο δεν έχει γίνει λήψη ή συσκευασία σε αυτό το αρχείο. Το κοντέινερ LMI θα κατεβάσει το μοντέλο για εσάς απευθείας από το Hugging Face. Έχετε επίσης την επιλογή να στοχεύσετε έναν κάδο S3 εάν θέλετε το δικό σας αντίγραφο του μοντέλου σε μια τοποθεσία που θα είναι πιο αποδοτική για λήψη. Το LMI περιλαμβάνει επίσης βελτιστοποίηση για λήψη από το Amazon S3 με υψηλή απόδοση. Δείτε τον παρακάτω κώδικα:

s3_code_artifact_deepspeed= sess.upload_data("model.tar.gz", bucket, s3_code_prefix_deepspeed)
print(f"S3 Code or Model tar for deepspeed uploaded to --- > {s3_code_artifact_deepspeed}")

Το μόνο που μένει να κάνουμε σε αυτό το σημείο είναι να ορίσουμε το κοντέινερ που θέλουμε να χρησιμοποιήσουμε και να δημιουργήσουμε ένα αντικείμενο μοντέλου:

inference_image_uri = ( f"763104351884.dkr.ecr.{region}.amazonaws.com/djl-inference:0.22.1-deepspeed0.8.3-cu118"
)
model_name_acc = name_from_base(f"falcon40b-model-ds")
create_model_response = sm_client.create_model( ModelName=model_name_acc, ExecutionRoleArn=role, PrimaryContainer={"Image": inference_image_uri, "ModelDataUrl": s3_code_artifact_deepspeed},
)
model_arn = create_model_response["ModelArn"]

Στη συνέχεια, δημιουργούμε μια διαμόρφωση τερματικού σημείου και δημιουργούμε το τελικό σημείο:


endpoint_config_name = f"{model_name}-config"
endpoint_name = f"{model_name}-endpoint"
endpoint_config_response = sm_client.create_endpoint_config( EndpointConfigName=endpoint_config_name, ProductionVariants=[ { "VariantName": "variant1", "ModelName": model_name, "InstanceType": "ml.g5.24xlarge", "InitialInstanceCount": 1, "ModelDataDownloadTimeoutInSeconds": 3600, "ContainerStartupHealthCheckTimeoutInSeconds": 3600, # "VolumeSizeInGB": 512 }, ],
)
endpoint_config_response create_endpoint_response = sm_client.create_endpoint( EndpointName=f"{endpoint_name}", EndpointConfigName=endpoint_config_name
)
print(f"Created Endpoint: {create_endpoint_response['EndpointArn']}")

Στοιχεία διαμόρφωσης που πρέπει να έχετε υπόψη σας για επιτυχημένη φιλοξενία

Ένα σημαντικό στοιχείο για τη φιλοξενία μεγάλων μοντέλων είναι η διασφάλιση ότι υπάρχει επαρκής χρόνος για λήψη μοντέλου από το Hugging Face. Στις δοκιμές μας, το Falcon-40B χρειάστηκε περίπου 90 λεπτά για να κατεβάσει στο στιγμιότυπο. Ένα βασικό σύνολο διαμορφώσεων που επιτρέπει αυτό είναι ContainerStartupHealthCheckTimeoutInSeconds και ModelDataDownloadTimeoutInSeconds. Βεβαιωθείτε ότι η διαμόρφωση τελικού σημείου του SageMaker έχει τιμή 3600 για καθένα από αυτά. Επιπλέον, είναι πολύ πιο εύκολο να κάνετε λήψη από το Amazon S3 αντί του αρχικού μοντέλου ζωολογικού κήπου χρησιμοποιώντας τα δοχεία LMI που είναι ειδικά σχεδιασμένα για LLMS που χρησιμοποιούν το βοηθητικό πρόγραμμα S5cmd, το οποίο μειώνει τον χρόνο λήψης του μοντέλου σε περίπου 10 λεπτά.

Μπορείτε να παρακολουθήσετε την κατάσταση του τελικού σημείου καλώντας DescribeEndpoint, που θα σας πει πότε όλα έχουν ολοκληρωθεί. Το τελικό σημείο σας είναι πλέον έτοιμο να απαντήσει σε αιτήματα συμπερασμάτων! Επειδή το LMI χειρίζεται τη διαμέριση και την ενορχήστρωση του μοντέλου για εσάς, κάθε αίτημα θα υποβληθεί σε επεξεργασία χρησιμοποιώντας και τις 4 GPU που είναι διαθέσιμες στην παρουσία μας ml.g5.12xlarge. Αυτό μας επιτρέπει να φιλοξενούμε LLM και να αυξάνουμε την απόδοση εάν κλιμακώνουμε τους επιταχυντές GPU οριζόντια. Δείτε τον παρακάτω κώδικα:

response_model = smr_client.invoke_endpoint( EndpointName=endpoint_name, Body=json.dumps({"text": "What is the purpose of life?", "text_length": 150}), ContentType="application/json",
) response_model["Body"].read().decode("utf8")

Εάν τελειώσετε και θέλετε να διαγράψετε τη διαμόρφωση τελικού σημείου, το τελικό σημείο και το αντικείμενο μοντέλου, μπορείτε να εκτελέσετε τις ακόλουθες εντολές:

sm_client.delete_endpoint(EndpointName=endpoint_name)
sm_client.delete_endpoint_config(EndpointConfigName=endpoint_config_name)
sm_client.delete_model(ModelName=model_name)

Αυτός ο κώδικας στον οποίο αναφερθήκαμε σε αυτήν την ανάρτηση βρίσκεται στο πλήρες σημειωματάριο στο GitHub.

Συμπέρασμα

Το SageMaker Hosting και το LMI DLC σας διευκολύνουν να φιλοξενήσετε LLM όπως το Falcon-40B. Αναλαμβάνει την αδιαφοροποίητη βαρύτητα στην ενορχήστρωση του τι απαιτείται για τη φιλοξενία μοντέλων σε πολλές GPU και παρέχει διαμορφώσιμες επιλογές για να ταιριάζουν στις ανάγκες σας. Επιπλέον, η χρήση μοντέλων Hugging Face γίνεται πολύ απλή, με ενσωματωμένη υποστήριξη για αυτά τα μοντέλα.

Σε αυτήν την ανάρτηση, δείξαμε πώς μπορείτε να χρησιμοποιήσετε το SageMaker για να φιλοξενήσετε το μοντέλο Falcon-40B χρησιμοποιώντας το DeepSpeed. Επιπλέον, δώσαμε παραδείγματα στο GitHub να φιλοξενήσει το Falcon-40B χρησιμοποιώντας το Accelerate και τα μικρότερα μοντέλα Falcon-7B. Σας ενθαρρύνουμε να δοκιμάσετε αυτό το SageMaker με το LMI και να αποκτήσετε πρακτικά το δημοσίως διαθέσιμο LLM με τις καλύτερες επιδόσεις μέχρι σήμερα!


Σχετικά με τους συγγραφείς

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Τζέιμς Παρκ είναι αρχιτέκτονας λύσεων στο Amazon Web Services. Συνεργάζεται με την Amazon.com για το σχεδιασμό, την κατασκευή και την ανάπτυξη τεχνολογικών λύσεων στο AWS και έχει ιδιαίτερο ενδιαφέρον για την τεχνητή νοημοσύνη και τη μηχανική μάθηση. Στον ελεύθερο χρόνο του απολαμβάνει να αναζητά νέους πολιτισμούς, νέες εμπειρίες και να ενημερώνεται για τις τελευταίες τάσεις της τεχνολογίας. Μπορείτε να τον βρείτε στο LinkedIn.

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Abhi Shivaditya είναι Ανώτερος Αρχιτέκτονας Λύσεων στην AWS, συνεργαζόμενος με στρατηγικούς παγκόσμιους επιχειρηματικούς οργανισμούς για να διευκολύνει την υιοθέτηση υπηρεσιών AWS σε τομείς όπως η Τεχνητή Νοημοσύνη, η κατανεμημένη πληροφορική, η δικτύωση και η αποθήκευση. Η εξειδίκευσή του έγκειται στη Deep Learning στους τομείς της Επεξεργασίας Φυσικής Γλώσσας (NLP) και του Computer Vision. Η Abhi βοηθά τους πελάτες να αναπτύξουν αποτελεσματικά μοντέλα μηχανικής εκμάθησης υψηλής απόδοσης εντός του οικοσυστήματος AWS.

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Robert Van Dusen είναι Ανώτερος Διευθυντής Προϊόντων με το Amazon SageMaker. Είναι επικεφαλής της βελτιστοποίησης μοντέλων βαθιάς μάθησης για εφαρμογές όπως η εξαγωγή συμπερασμάτων μεγάλων μοντέλων.

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Εβάντρο Φράνκο είναι Αρχιτέκτονας Ειδικών Λύσεων AI/ML που εργάζεται στις Υπηρεσίες Ιστού της Amazon. Βοηθά τους πελάτες του AWS να ξεπεράσουν τις επιχειρηματικές προκλήσεις που σχετίζονται με το AI/ML πέρα ​​από το AWS. Εργάζεται για περισσότερα από 15 χρόνια με την τεχνολογία, από την ανάπτυξη λογισμικού, την υποδομή, χωρίς διακομιστή, μέχρι τη μηχανική μάθηση.

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Τσινγκ Λαν είναι Μηχανικός Ανάπτυξης Λογισμικού στην AWS. Έχει εργαστεί σε πολλά προκλητικά προϊόντα στο Amazon, συμπεριλαμβανομένων λύσεων συμπερασμάτων ML υψηλής απόδοσης και συστήματος καταγραφής υψηλής απόδοσης. Η ομάδα του Qing κυκλοφόρησε με επιτυχία το πρώτο μοντέλο δισεκατομμυρίων παραμέτρων στο Amazon Advertising με πολύ χαμηλό λανθάνοντα χρόνο που απαιτείται. Ο Qing έχει εις βάθος γνώση σχετικά με τη βελτιστοποίηση της υποδομής και την επιτάχυνση Deep Learning.

Αναπτύξτε το Falcon-40B με μεγάλα DLC συμπερασμάτων μοντέλων στο Amazon SageMaker | Υπηρεσίες Ιστού Amazon PlatoBlockchain Data Intelligence. Κάθετη αναζήτηση. Ολα συμπεριλαμβάνονται.Frank Liu είναι Μηχανικός Λογισμικού για AWS Deep Learning. Επικεντρώνεται στην κατασκευή καινοτόμων εργαλείων βαθιάς μάθησης για μηχανικούς και επιστήμονες λογισμικού. Στον ελεύθερο χρόνο του, απολαμβάνει πεζοπορία με φίλους και συγγενείς.

Σφραγίδα ώρας:

Περισσότερα από Μηχανική εκμάθηση AWS