يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart

نعلن اليوم عن إتاحة أحدث ما توصلت إليه أمازون للجمهور نموذج مدرس Alexa مع 20 مليار معلمة  (AlexaTM 20B) حتى أمازون سيج ميكر جومب ستارت، مركز التعلم الآلي من SageMaker. AlexaTM 20B هو نموذج لغة متعدد اللغات واسع النطاق من التسلسل إلى التسلسل (seq2seq) تم تطويره بواسطة Amazon. يمكنك استخدام AlexaTM 20B لمجموعة واسعة من حالات الاستخدام الصناعية ، من تلخيص التقارير المالية إلى الإجابة عن الأسئلة لروبوتات خدمة العملاء. يمكن تطبيقه حتى في حالة وجود عدد قليل من الأمثلة التدريبية المتاحة ، أو حتى عدم توفرها على الإطلاق. AlexaTM 20B يتفوق 175 مليار نموذج GPT-3 في مهام التعلم الصفرية مثل SuperGLUE ويظهر أداءً متطورًا لمهام متعددة اللغات مثل XNLI.

في هذا المنشور ، نقدم نظرة عامة حول كيفية نشر وتشغيل الاستدلال باستخدام نموذج AlexaTM 20B برمجيًا من خلال واجهات برمجة تطبيقات JumpStart المتوفرة في SageMaker بيثون SDK. نوضح كيف يمكنك استخدام هذا النموذج للترجمة بين لغات متعددة ، وتلخيص نص طويل ، والإجابة على الأسئلة بناءً على سياق معين وإنشاء نص يبدو غير قابل للتمييز عن النص المكتوب من قبل الإنسان.

AlexaTM 20B والتعلم في السياق

تم تصميم برنامج Alexa Teacher Model (AlexaTM) بواسطة Amazon Alexa AI لبناء نماذج تعلم عميق واسعة النطاق ومتعددة اللغات (تعتمد بشكل أساسي على المحولات) ، بهدف تحسين التعميم والتعامل مع ندرة البيانات للمهام النهائية. من خلال التدريب المسبق واسع النطاق ، يمكن لنماذج المعلمين التعميم جيدًا لتعلم المهام الجديدة من البيانات المتفرقة ومساعدة المطورين على تحسين الأداء في المهام النهائية. لقد أظهر AlexaTM 20B أداء تنافسي حول معايير ومهام معالجة اللغة الطبيعية الشائعة (NLP) ، مثل الترجمة الآلية وتوليد البيانات وتلخيصها.

يقلل استخدام نماذج الأساس مثل AlexaTM 20B من الحاجة إلى تدريب مسبق للنموذج باهظ التكلفة ويوفر نقطة انطلاق متطورة لتطوير نماذج المهام بجهد أقل وبيانات تدريب أقل خاصة بالمهام. تتمثل إحدى القدرات الرئيسية لنماذج الأساس في أنه يمكننا تعليم نموذج لأداء مهام جديدة مثل السؤال والإجابة بلغات مختلفة ، مع كميات صغيرة جدًا من أمثلة الإدخال دون الحاجة إلى ضبط دقيق أو تحديثات التدرج. هذا هو المعروف باسم التعلم في السياق. مع أمثلة قليلة فقط لمهمة جديدة مقدمة كسياق للاستدلال ، يمكن لنموذج AlexaTM 20B نقل المعرفة مما تم تعلمه أثناء التدريب المسبق على نطاق واسع ، حتى عبر اللغات. هذا يسمي التعلم بالرصاص قليلة. في بعض الحالات ، يمكن أن يؤدي النموذج أداءً جيدًا بدون أي بيانات تدريب على الإطلاق ، مع شرح فقط لما يجب توقعه. هذا يسمي التعلم من الصفر. على سبيل المثال ، لنفترض أننا نستخدم AlexaTM 20B لتوليد لغة طبيعية دفعة واحدة. المدخلات التي تم تمريرها إلى النموذج هي مثال تدريبي في شكل أزواج من السمة والقيمة ، جنبًا إلى جنب مع سرد نص المخرجات المقابل. ثم يتم إلحاق مثال الاختبار لتشكيل موجه الإدخال الكامل ، كما هو موضح في الشكل التالي.

لمعرفة المزيد عن النموذج ، تحقق من يضع نموذج Alexa ذو 20B المعلمة علامات جديدة في التعلم قليل اللقطات أو الأصلي ورقة.

استخدام AlexaTM 20B متاح للاستخدام غير التجاري وهو مشمول تحت اتفاقية ترخيص نموذج مدرس Alexa.

حل نظرة عامة

توفر الأقسام التالية عرضًا توضيحيًا خطوة بخطوة حول كيفية نشر النموذج وتشغيل الاستدلال والقيام بالتعلم في السياق لحل مهام التعلم ذات اللقطات القليلة.

لاحظ أن القسم التالي يحتوي على مقتطفات التعليمات البرمجية ؛ الكود الكامل مع جميع الخطوات في هذا العرض التوضيحي متاح في دفتر الملاحظات المصاحب: التعلم في السياق باستخدام AlexaTM 20B في SageMaker JumpStart.

انشر النموذج

لاستخدام نموذج لغة كبير في SageMaker ، فأنت بحاجة إلى نص برمجي استنتاجي خاص بالنموذج ، والذي يتضمن خطوات مثل تحميل النموذج والتوازي والمزيد. تحتاج أيضًا إلى إنشاء اختبارات شاملة للنصوص والنموذج وأنواع المثيلات المرغوبة للتحقق من إمكانية عمل الثلاثة معًا. يزيل JumpStart هذا الجهد من خلال توفير البرامج النصية الجاهزة للاستخدام التي تم اختبارها بقوة.

يمنحك SageMaker القدرة على تشغيل حاويات Docker على نطاق واسع للتدريب والاستنتاج. يستخدم JumpStart هذه المتاحة الخاصة بإطار العمل حاويات التعلم العميق من SageMaker (DLCs). نبدأ بجلب DLC المحسن (deploy_image_uri) باستخدام model_id. ثم نقوم بإحضار ملف model_uri تحتوي على معلمات النموذج ، جنبًا إلى جنب مع البرامج النصية لمعالجة الاستدلال وأي تبعيات مرتبطة بها. بعد ذلك ، نقوم بإنشاء ملف مثيل النموذج في SageMaker ونشره في نقطة نهاية في الوقت الفعلي. انظر الكود التالي:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

يتطلب نشر AlexaTM 20B مثيلًا مدعومًا بوحدة معالجة الرسومات مع 50 جيجابايت على الأقل من ذاكرة وحدة المعالجة المركزية و 42 جيجابايت على الأقل من ذاكرة وحدة معالجة الرسومات. يوفر SageMaker العديد من هذه الحالات التي تدعم الاستدلال في الوقت الفعلي. اختبرنا هذا المحلول على ثلاث حالات: ml.g4dn.12xlarge و ml.p3.8xlarge و ml.p3.16xlarge. انظر الكود التالي:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

بعد ذلك ، ننشر النموذج إلى نقطة نهاية في الوقت الفعلي لـ SageMaker:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

يتطلب AlexaTM 20B مساحة قرص تبلغ 40 جيجابايت في حاوية الاستدلال. يفي مثيل ml.g4dn.12xlarge بهذا المطلب. على سبيل المثال أنواع ml.p3.8xlarge و ml.p3.16xlarge ، فإننا نرفق ملف متجر أمازون مطاط بلوك حجم (Amazon EBS) للتعامل مع حجم النموذج الكبير. لذلك ، وضعنا volume_size = None عند النشر على ml.g4dn.12xlarge و volume_size=256 عند النشر على ml.p3.8xlarge أو ml.p3.16xlarge.

قد يستغرق نشر النموذج ما يصل إلى 10 دقائق. بعد نشر النموذج ، يمكننا الحصول على تنبؤات منه في الوقت الفعلي!

تشغيل الاستدلال

AlexaTM 20B عبارة عن نموذج لتوليد النص ، نظرًا لتسلسل جزئي (جملة أو جزء من النص) ، يولد المجموعة التالية من الكلمات. يمنحك مقتطف الشفرة التالي لمحة عن كيفية الاستعلام عن نقطة النهاية التي نشرناها وتحليل المخرجات لمهمة الإكمال التلقائي. لإرسال طلبات إلى نموذج تم نشره ، نستخدم قاموس JSON المشفر بتنسيق UTF-8. استجابة نقطة النهاية هي كائن JSON يحتوي على قائمة بالنصوص المُنشأة.

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

بعد ذلك ، نستعلم عن نقطة النهاية ونحلل الاستجابة في نموذج نص الإدخال:

# text can be a single string or a list of strings
text = “[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, “max_length”: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: “travel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.”

يدعم AlexaTM 20B حاليًا 10 معلمات لإنشاء النص أثناء الاستدلال: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_pو seed. للحصول على معلومات مفصلة حول القيم الصالحة لكل معلمة وتأثيرها على المخرجات ، راجع دفتر الملاحظات المصاحب: التعلم في السياق باستخدام AlexaTM 20B في SageMaker JumpStart.

التعلم في السياق

يشير التعلم في السياق إلى ما يلي: نحن نقدم نموذج اللغة مع موجه ، والذي يتكون من أزواج من المدخلات والمخرجات التدريبية التي توضح المهمة. نلحق إدخال اختبار بالموجه ونسمح لنموذج اللغة بعمل تنبؤات عن طريق تكييف الموجه والتنبؤ بالرموز أو الكلمات التالية. هذه تقنية فعالة للغاية لحل بعض مشاكل التعلم بالرصاص ، حيث نتعلم مهمة من بعض عينات التدريب.

بعد ذلك ، نوضح كيف يمكنك استخدام AlexaTM 20B للعديد من مهام اللقطة الواحدة والصفر من خلال التعلم في السياق. على عكس نماذج التسلسل إلى التسلسل السابقة ، تم تدريب AlexaTM 1B على نمذجة اللغة السببية بالإضافة إلى تقليل الضوضاء ، مما يجعلها نموذجًا جيدًا للتعلم في السياق.

تلخيص نصي واحد

تلخيص النص هو مهمة تقصير البيانات وإنشاء ملخص يمثل أهم المعلومات الموجودة في النص الأصلي. يشير تلخيص نص اللقطة الواحدة إلى الإعداد حيث نتعلم تلخيص النص بناءً على عينة تدريب واحدة. التعليمة البرمجية التالية هي نموذج تلخيص نصي من ملف مجموعة بيانات XSUM:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly £400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

نستخدم الموجه التالي للتلخيص عند تقديم عينة تدريب واحدة فقط. يتم تفسير النص الذي تم إنشاؤه من النموذج على أنه الملخص المتوقع لمقالة الاختبار.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

الإخراج كما يلي:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

1-لقطة لتوليد اللغة الطبيعية

توليد اللغة الطبيعية هو مهمة إنتاج السرد النصي بالنظر إلى إدخال النص. يوضح النموذج التالي عينة تدريب من مجموعة بيانات E2E:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

نستخدم الموجه التالي لتوليد اللغة الطبيعية عند تقديم عينة تدريب واحدة فقط (لقطة واحدة). يتم تفسير النص الذي تم إنشاؤه من النموذج على أنه سرد النص المتوقع لإدخال الاختبار (test_inp).

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

الإخراج كما يلي:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

ترجمة آلية واحدة

الترجمة الآلية هي مهمة ترجمة النص من لغة إلى أخرى. يوضح المثال التالي عينة تدريب من مجموعة بيانات WMT19 حيث نحتاج إلى الترجمة من الألمانية إلى الإنجليزية:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingärtner bewirtschaften den einstigen Grund von Bauern."

نستخدم الموجه التالي للترجمة الآلية عند تقديم عينة تدريب واحدة فقط (لقطة واحدة). يتم تفسير النص الذي تم إنشاؤه من النموذج على أنه ترجمة لإدخال الاختبار (test_inp).

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

الإخراج كما يلي:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

إجابة سؤال استخلاصي بدون طلقة

الإجابة الاستخراجية للأسئلة هي مهمة إيجاد إجابة لسؤال من فقرة السياق. فيما يلي مثال على سياق وسؤال من مجموعة بيانات SQuAD v2:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

لاحظ أنه ليس لدينا أي عينات تدريب لمهمتنا. بدلاً من ذلك ، نقوم بإنشاء سؤال وهمي حول الكلمة الأخيرة في الموجه ، بناءً على test_context (لقطة وهمية). لذلك ، نحن في الواقع نجري إجابة أسئلة استخلاصية من الصفر.

نستخدم الموجه التالي للإجابة الاستخراجية للأسئلة عندما لا يتم تقديم عينة تدريب. يتم تفسير النص الذي تم إنشاؤه من النموذج على أنه إجابة لسؤال الاختبار.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.

الإخراج كما يلي:

AlexaTM 20B output: 'France'

موجه الهندسة

يمكن أن تكون الهندسة السريعة فنًا في بعض الأحيان. حتى التغييرات الصغيرة في قالب المطالبة يمكن أن تؤدي إلى تغييرات كبيرة في أداء النموذج في مهمة معينة. فيما يلي بعض النصائح لكتابة قوالب سريعة جيدة. أولاً ، من المهم أن تتذكر أن النموذج قد تم تدريبه على تعلم بنية الجمل الحقيقية (نمذجة اللغة السببية). على هذا النحو ، من الأفضل التأكد من أن القالب الفوري الخاص بك صحيح نحويًا وتركيبيًا باللغة الطبيعية. ثانيًا ، يستفيد هذا النموذج الخاص من اللقطات الوهمية للمساعدة في تعليمه الهيكل المتوقع في الإجابة ، كما هو موضح أعلاه. ثالثًا ، يُنصح دائمًا بفحص أداء المهام عبر مجموعة متنوعة من قوالب موجه المرشحين. موجه و  تعليمات طبيعية هما إطاران مفتوحان المصدر لتوحيد القوالب السريعة ، وهما يوفران مجموعة متنوعة من نماذج المطالبات المستخدمة في مهام النمذجة الحالية. بالإضافة إلى ذلك ، الملحق ب من ورق AlexaTM 20B يوفر القوالب السريعة المستخدمة لتوليد النتائج المعروضة في الورقة. هناك مجال فرعي متزايد مخصص للإنشاء التلقائي والتعلم لأفضل المطالبات لمهمة ما ، بما في ذلك كل من اللغة الطبيعية والمطالبات المستمرة. هذا خارج نطاق هذا البرنامج التعليمي.

وفي الختام

في هذا المنشور ، أوضحنا كيفية نشر نموذج AlexaTM 20B على نقطة نهاية SageMaker وتشغيل الاستدلال. يمكنك استخدام نموذج AlexaTM 20B للتعلم في السياق لمجموعة متنوعة من مهام التعلم قليلة اللقطات. لمعرفة المزيد حول AlexaTM 20B ، ارجع إلى يضع نموذج Alexa ذو 20B المعلمة علامات جديدة في التعلم قليل اللقطات أو الأصلي ورقة.

يود المؤلفون أن يقروا بالمساهمات الفنية لماسيج رودنيكي ، وجاكوب ديبسكي ، وأشيش خيتان ، وأناستاسيا دوبينينا ، وفيتالي كوروليف ، وكارل ألبيرتسين ، وصالح سلطان ، وماريوس موموتكو في جعل هذا الإطلاق ممكنًا.


حول JumpStart

JumpStart هو مركز التعلم الآلي (ML) في Amazon SageMaker الذي يقدم أكثر من 350 نموذجًا مُدرَّبًا مسبقًا وخوارزميات مدمجة وقوالب حلول مُعدة مسبقًا لمساعدتك على بدء استخدام ML بسرعة. يستضيف JumpStart أحدث النماذج من محاور النماذج الشهيرة مثل TensorFlow و PyTorch و Hugging Face و MXNet ، والتي تدعم مهام ML الشائعة مثل اكتشاف الكائنات وتصنيف النص وإنشاء النص. بذل مجتمع أبحاث ML قدرًا كبيرًا من الجهد في جعل غالبية النماذج المطورة حديثًا متاحة للاستخدام العام. يهدف JumpStart إلى مساعدتك في العثور على نماذج وخوارزميات ML الصحيحة ، والبدء فورًا في إنشاء النماذج. على وجه التحديد ، يوفر JumpStart الفوائد التالية:

  • سهولة الوصول باستخدام واجهة المستخدم و SDK - يمكنك الوصول إلى النماذج والخوارزميات في JumpStart برمجيًا باستخدام SageMaker Python SDK أو من خلال JumpStart UI في Amazon SageMaker Studio. حاليًا ، لا يمكن الوصول إلى AlexaTM 20B إلا من خلال SageMaker Python SDK.
  • خوارزميات SageMaker المدمجة - يوفر JumpStart أكثر من 350 خوارزمية مدمجة ونماذج مدربة مسبقًا ، جنبًا إلى جنب مع البرامج النصية التدريبية المقابلة (إذا كانت مدعومة) ، واستنتاج البرامج النصية ، وأمثلة على أجهزة الكمبيوتر المحمولة. تم تحسين البرامج النصية لكل إطار عمل ومهمة ، وتوفر ميزات مثل دعم GPU وضبط النموذج التلقائي والتدريب الإضافي. يتم أيضًا اختبار البرامج النصية مقابل مثيلات وميزات SageMaker بحيث لا تواجه مشكلات في التوافق.
  • حلول سابقة الإنشاء - يوفر JumpStart مجموعة من 23 حلاً لحالات استخدام ML الشائعة ، مثل التنبؤ بالطلب والتطبيقات الصناعية والمالية ، والتي يمكنك نشرها ببضع نقرات فقط. الحلول عبارة عن تطبيقات ML شاملة تجمع بين خدمات AWS المتنوعة لحل حالة استخدام عمل معينة. يستخدمون قوالب AWS CloudFormation والبنى المرجعية للنشر السريع ، مما يعني أنها قابلة للتخصيص بالكامل.
  • الدعم - يوفر SageMaker مجموعة من الدعم ، مثل الاحتفاظ بإصدارات محدثة عند إصدار ميزات SageMaker الجديدة أو إصدارات حاوية التعلم العميق ، وإنشاء وثائق حول كيفية استخدام محتويات JumpStart في بيئة SageMaker.

لمعرفة المزيد حول JumpStart وكيف يمكنك استخدام نماذج مفتوحة المصدر مدربة مسبقًا لمجموعة متنوعة من مهام ML الأخرى ، تحقق من ما يلي AWS re: Invent 2020 video.


حول المؤلف

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.الدكتور فيفيك مادان هو عالم تطبيقي مع فريق Amazon SageMaker JumpStart. حصل على الدكتوراه من جامعة إلينوي في Urbana-Champaign وكان باحثًا بعد الدكتوراه في Georgia Tech. وهو باحث نشط في التعلم الآلي وتصميم الخوارزمية وقد نشر أوراقًا علمية في مؤتمرات EMNLP و ICLR و COLT و FOCS و SODA.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.جاك فيتزجيرالد هو عالم تطبيقي كبير مع Alexa AI ، حيث يركز حاليًا على النمذجة اللغوية الكبيرة ، ونمذجة النص متعدد اللغات ، وعمليات التعلم الآلي.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.جواو مورا هو مهندس حلول متخصص في AI / ML في Amazon Web Services. يركز في الغالب على حالات استخدام البرمجة اللغوية العصبية ومساعدة العملاء على تحسين التدريب على نموذج التعلم العميق ونشره. وهو أيضًا مؤيد نشط لحلول ML ذات التعليمات البرمجية المنخفضة والأجهزة المتخصصة في ML.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي. وون يونيو هو مدير منتج مع SageMaker JumpStart وخوارزميات مدمجة. يركز على جعل محتويات ML سهلة الاكتشاف والاستخدام لعملاء SageMaker.

يتوفر AlexaTM 20B الآن في Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence. البحث العمودي. عاي.بولكيت كابور هو قائد المنتج لبرنامج Alexa Teacher Model مع Alexa AI ، مع التركيز على الذكاء والتطبيقات المعممة لنماذج مؤسسة Alexa متعددة المهام الأساسية.

الطابع الزمني:

اكثر من التعلم الآلي من AWS