AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی

AlexaTM 20B اب Amazon SageMaker JumpStart میں دستیاب ہے۔

آج، ہم Amazon کے جدید ترین کی عوامی دستیابی کا اعلان کرتے ہیں۔ 20 بلین پیرامیٹرز کے ساتھ الیکسا ٹیچر ماڈل  (AlexaTM 20B) کے ذریعے ایمیزون سیج میکر جمپ اسٹارٹ، سیج میکر کا مشین لرننگ ہب۔ AlexaTM 20B ایک کثیر لسانی بڑے پیمانے پر ترتیب سے ترتیب (seq2seq) زبان کا ماڈل ہے جسے Amazon نے تیار کیا ہے۔ آپ AlexaTM 20B کو صنعت کے استعمال کے کیسز کی ایک وسیع رینج کے لیے استعمال کر سکتے ہیں، مالیاتی رپورٹوں کا خلاصہ کرنے سے لے کر کسٹمر سروس چیٹ بوٹس کے سوالوں کے جوابات تک۔ اس کا اطلاق اس وقت بھی کیا جا سکتا ہے جب صرف چند دستیاب تربیتی مثالیں ہوں، یا یہاں تک کہ کوئی بھی نہیں۔ AlexaTM 20B outperforms 175 ارب GPT-3 ماڈل زیرو شاٹ لرننگ ٹاسکس جیسے کہ SuperGLUE پر اور XNLI جیسے کثیر لسانی زیرو شاٹ ٹاسک کے لیے جدید ترین کارکردگی دکھاتا ہے۔

اس پوسٹ میں، ہم JumpStart APIs کے ذریعے پروگرام کے مطابق AlexaTM 20B ماڈل کے ساتھ اندازہ لگانے اور چلانے کے طریقہ کا ایک جائزہ فراہم کرتے ہیں، جو SageMaker Python SDK. ہم مثال دیتے ہیں کہ آپ کس طرح اس ماڈل کو متعدد زبانوں کے درمیان ترجمہ کرنے، طویل شکل کے متن کا خلاصہ کرنے، دیئے گئے سیاق و سباق کی بنیاد پر سوالات کے جوابات دینے اور ایسے متن کو تخلیق کرنے کے لیے استعمال کر سکتے ہیں جو انسانی تحریری متن سے الگ نہ ہو۔

AlexaTM 20B اور سیاق و سباق میں سیکھنا

Amazon Alexa AI کی طرف سے Alexa Teacher Model (AlexaTM) پروگرام بڑے پیمانے پر کثیر لسانی گہری سیکھنے کے ماڈلز (بنیادی طور پر ٹرانسفارمر پر مبنی) بنانے کے لیے ڈیزائن کیا گیا ہے، جس کا مقصد بہاوی کاموں کے لیے ڈیٹا کی کمی کو عام کرنا اور ہینڈل کرنا ہے۔ بڑے پیمانے پر پری ٹریننگ کے ساتھ، اساتذہ کے ماڈلز اسپرس ڈیٹا سے نئے کاموں کو سیکھنے کے لیے اچھی طرح عام کر سکتے ہیں اور ڈویلپرز کو بہاو والے کاموں پر کارکردگی کو بہتر بنانے میں مدد کرتے ہیں۔ AlexaTM 20B نے دکھایا ہے۔ مسابقتی کارکردگی کامن نیچرل لینگویج پروسیسنگ (NLP) بینچ مارکس اور کاموں پر، جیسے مشین ترجمہ، ڈیٹا جنریشن اور خلاصہ۔

فاؤنڈیشن ماڈلز جیسے کہ AlexaTM 20B کا استعمال مہنگے ماڈل کی پری ٹریننگ کی ضرورت کو کم کرتا ہے اور کم محنت اور کم ٹاسک مخصوص ٹریننگ ڈیٹا کے ساتھ ٹاسک ماڈل تیار کرنے کے لیے ایک جدید ترین نقطہ آغاز فراہم کرتا ہے۔ فاؤنڈیشن ماڈلز کی کلیدی صلاحیتوں میں سے ایک یہ ہے کہ ہم ایک ماڈل کو مختلف زبانوں میں سوال و جواب جیسے نئے کام انجام دینے کے لیے سکھا سکتے ہیں، جس میں ان پٹ مثالوں کی بہت کم مقدار ہوتی ہے اور کسی فائن ٹیوننگ یا گریڈینٹ اپ ڈیٹ کی ضرورت نہیں ہوتی ہے۔ یہ کے طور پر جانا جاتا ہے سیاق و سباق کی تعلیم. ایک نئے کام کی صرف چند مثالوں کے ساتھ جو سیاق و سباق کے حوالے سے فراہم کی گئی ہے، AlexaTM 20B ماڈل بڑے پیمانے پر پری ٹریننگ کے دوران سیکھے گئے علم سے، یہاں تک کہ زبانوں میں بھی منتقل کر سکتا ہے۔ اسے کہتے ہیں۔ چند شاٹ سیکھنے. کچھ معاملات میں، ماڈل بغیر کسی تربیتی ڈیٹا کے بالکل اچھی کارکردگی کا مظاہرہ کر سکتا ہے، صرف اس کی وضاحت کے ساتھ کہ کیا پیشین گوئی کی جانی چاہیے۔ اسے کہتے ہیں۔ صفر شاٹ سیکھنا. مثال کے طور پر، ہم کہتے ہیں کہ ہم ایک شاٹ قدرتی زبان کی تخلیق کے لیے AlexaTM 20B استعمال کر رہے ہیں۔ ماڈل کو دیا گیا ان پٹ اس کے متعلقہ آؤٹ پٹ ٹیکسٹ بیانیہ کے ساتھ، انتساب-قدر کے جوڑوں کی شکل میں تربیتی مثال ہے۔ اس کے بعد ٹیسٹ کی مثال کو مکمل ان پٹ پرامپٹ بنانے کے لیے جوڑا جاتا ہے، جیسا کہ درج ذیل تصویر میں دکھایا گیا ہے۔

ماڈل کے بارے میں مزید جاننے کے لیے، چیک آؤٹ کریں۔ 20B-پیرامیٹر Alexa ماڈل چند شاٹ لرننگ میں نئے نشانات مرتب کرتا ہے۔ یا اصل کاغذ.

AlexaTM 20B کا استعمال غیر تجارتی استعمال کے لیے دستیاب کرایا گیا ہے اور اس کا احاطہ کیا گیا ہے۔ الیکسا ٹیچر ماڈل لائسنس کا معاہدہ.

حل جائزہ

مندرجہ ذیل حصے ایک مرحلہ وار ڈیمو فراہم کرتے ہیں کہ ماڈل کو کیسے تعینات کیا جائے، اندازہ لگایا جائے، اور سیاق و سباق میں سیکھنے کے چند کاموں کو حل کیا جائے۔

نوٹ کریں کہ درج ذیل حصے میں کوڈ کے ٹکڑوں پر مشتمل ہے۔ اس ڈیمو کے تمام مراحل کے ساتھ مکمل کوڈ ساتھ والی نوٹ بک میں دستیاب ہے: سیج میکر جمپ اسٹارٹ میں AlexaTM 20B کے ساتھ سیاق و سباق میں سیکھنا.

ماڈل تعینات کریں۔

SageMaker میں زبان کا ایک بڑا ماڈل استعمال کرنے کے لیے، آپ کو ماڈل کے لیے مخصوص ایک انفرنسنگ اسکرپٹ کی ضرورت ہے، جس میں ماڈل لوڈنگ، متوازی کاری اور بہت کچھ جیسے اقدامات شامل ہیں۔ آپ کو اسکرپٹس، ماڈل اور مطلوبہ مثال کی اقسام کے لیے اینڈ ٹو اینڈ ٹیسٹ بنانے کی بھی ضرورت ہے تاکہ یہ تصدیق ہو سکے کہ تینوں ایک ساتھ کام کر سکتے ہیں۔ جمپ اسٹارٹ استعمال کے لیے تیار اسکرپٹ فراہم کرکے اس کوشش کو ہٹاتا ہے جن کا مضبوطی سے تجربہ کیا گیا ہے۔

سیج میکر آپ کو تربیت اور اندازہ لگانے کے لیے بڑے پیمانے پر ڈوکر کنٹینرز چلانے کی صلاحیت فراہم کرتا ہے۔ جمپ سٹارٹ ان دستیاب فریم ورک کے ساتھ مخصوص استعمال کرتا ہے۔ سیج میکر ڈیپ لرننگ کنٹینرز (DLCs)۔ ہم آپٹمائزڈ DLC (deploy_image_uri) کا استعمال کرتے ہوئے model_id. پھر ہم لاتے ہیں۔ model_uri ماڈل کے پیرامیٹرز پر مشتمل، انفرنس ہینڈلنگ اسکرپٹس اور کسی بھی متعلقہ انحصار کے ساتھ۔ اگلا، ہم ایک بناتے ہیں ماڈل مثال سیج میکر میں اور اسے ریئل ٹائم اینڈ پوائنٹ پر تعینات کریں۔ درج ذیل کوڈ دیکھیں:

# model_version="*" fetches the latest version of the model
model_id, model_version = "pytorch-textgeneration1-alexa20b", "*"

instance_type = "ml.g4dn.12xlarge"

# Retrieve the inference docker container uri
deploy_image_uri = image_uris.retrieve(
    region=None,
    framework=None,  # automatically inferred from model_id
    image_scope="inference",
    model_id=model_id,
    model_version=model_version,
    instance_type=inference_instance_type,
)

# Retrieve the model uri. This includes the model parameters, all dependencies and scripts for model loading, inference handling etc.
 model_uri = model_uris.retrieve(
 model_id=model_id, 
 model_version=model_version, 
 model_scope="inference")

AlexaTM 20B کی تعیناتی کے لیے کم از کم 50 GB CPU میموری اور کم از کم 42 GB GPU میموری کے ساتھ GPU کی حمایت یافتہ مثال درکار ہے۔ سیج میکر ایسی بہت سی مثالیں فراہم کرتا ہے جو حقیقی وقت کے تخمینے کی حمایت کرتے ہیں۔ ہم نے اس حل کو تین مثالوں پر آزمایا: ml.g4dn.12xlarge, ml.p3.8xlarge, ml.p3.16xlarge۔ درج ذیل کوڈ دیکھیں:

env = {
        "SAGEMAKER_MODEL_SERVER_TIMEOUT": str(3600),
        "MODEL_CACHE_ROOT": "/opt/ml/model",
        "SAGEMAKER_ENV": "1",
        "SAGEMAKER_SUBMIT_DIRECTORY":"/opt/ml/model/code/",
        "SAGEMAKER_PROGRAM": "inference.py",
        "SAGEMAKER_MODEL_SERVER_WORKERS": "1", # One worker for the endpoint rather than one worker per GPU by default
        "TS_DEFAULT_WORKERS_PER_MODEL":"1" # 1 TS worker which allocates all memory to the single master worker.
    }
    
#Create the SageMaker model instance. Note that we need to pass Predictor class when we deploy model through Model class,
#for being able to run inference through the sagemaker API.
model = Model(
    image_uri=deploy_image_uri,
    model_data=model_uri,
    role=aws_role,
    predictor_cls=Predictor,
    name=endpoint_name,
    env=env
)

اگلا، ہم ماڈل کو سیج میکر ریئل ٹائم اینڈ پوائنٹ پر تعینات کرتے ہیں:

# deploy the Model.
model_predictor = model.deploy(
    initial_instance_count=1,
    instance_type=instance_type,
    endpoint_name=endpoint_name,
    volume_size= volume_size, # Specify the size of the Amazon EBS volume in GBs.
    model_data_download_timeout = 3600, # Specify the model download timeout in seconds.
    container_startup_health_check_timeout = 3600, # Specify the health checkup timeout in seconds
)

AlexaTM 20B کو انفرنس کنٹینر میں 40 GB ڈسک کی جگہ درکار ہے۔ ایک ml.g4dn.12xlarge مثال اس ضرورت کو پورا کرتی ہے۔ مثال کے طور پر ml.p3.8xlarge اور ml.p3.16xlarge کی اقسام، ہم ایک منسلک کرتے ہیں ایمیزون لچکدار بلاک اسٹور (ایمیزون EBS) حجم بڑے ماڈل سائز کو ہینڈل کرنے کے لئے. لہذا، ہم نے مقرر کیا volume_size = None ml.g4dn.12xlarge پر تعینات کرتے وقت اور volume_size=256 ml.p3.8xlarge یا ml.p3.16xlarge پر تعینات کرتے وقت۔

ماڈل کی تعیناتی میں 10 منٹ لگ سکتے ہیں۔ ماڈل کے تعینات ہونے کے بعد، ہم اس سے حقیقی وقت میں پیشین گوئیاں حاصل کر سکتے ہیں!

تخمینہ چلائیں۔

AlexaTM 20B ایک ٹیکسٹ جنریشن ماڈل ہے جو کہ جزوی ترتیب (ایک جملہ یا متن کا ٹکڑا) دیکر الفاظ کا اگلا مجموعہ تیار کرتا ہے۔ درج ذیل کوڈ کا ٹکڑا آپ کو اس بات کی ایک جھلک دیتا ہے کہ ہم نے جو اختتامی نقطہ ہم نے تعینات کیا ہے اس سے کیسے استفسار کیا جائے اور خودکار تکمیل کے کام کے لیے آؤٹ پٹ کو پارس کیا جائے۔ تعینات کردہ ماڈل کو درخواستیں بھیجنے کے لیے، ہم UTF-8 فارمیٹ میں انکوڈ کردہ JSON لغت کا استعمال کرتے ہیں۔ اختتامی جواب ایک JSON آبجیکٹ ہے جس میں تیار کردہ متن کی فہرست ہے۔

def query(model_predictor, text, kwargs = None):
    """Query the model predictor."""

    payload = {"text_inputs": text}
    if kwargs is not None:
        payload.update(kwargs)
        
    encoded_inp = json.dumps(payload).encode("utf-8")

    query_response = model_predictor.predict(
        encoded_inp,
        {
            "ContentType": "application/json",
            "Accept": "application/json",
        },
    )
    return query_response
 
def parse_response(query_response):
    """Parse response and return the generated texts."""

    model_predictions = json.loads(query_response)
    generated_texts = model_predictions["generated_texts"]
    return generated_texts

اگلا، ہم اختتامی نقطہ سے استفسار کرتے ہیں اور نمونے کے ان پٹ متن پر جواب کو پارس کرتے ہیں:

# text can be a single string or a list of strings
text = “[CLM]My name is Lewis and I like to"
kwargs = {"num_beams": 5, "no_repeat_ngram_size": 2, “max_length”: 50}
query_response = query_endpoint(model_predictor, text, kwargs)
generated_texts = parse_response(query_response)

Generated_texts: “travel and meet new people. I have been to many countries and I like to meet people from all over the world. If you are interested in meeting me, please feel free to send me a message and we can arrange a meeting.”

AlexaTM 20B فی الحال قیاس کے دوران 10 ٹیکسٹ جنریشن پیرامیٹرز کی حمایت کرتا ہے: max_length, num_return_sequences, num_beams, no_repeat_ngram_size, temperature, early_stopping, do_sample, top_k, top_p، اور seed. ہر پیرامیٹر کے لیے درست اقدار اور آؤٹ پٹ پر ان کے اثرات کے بارے میں تفصیلی معلومات کے لیے، ساتھ والی نوٹ بک دیکھیں: سیج میکر جمپ اسٹارٹ میں AlexaTM 20B کے ساتھ سیاق و سباق میں سیکھنا.

سیاق و سباق میں سیکھنا

سیاق و سباق میں سیکھنے سے مراد درج ذیل ہے: ہم زبان کا ماڈل ایک پرامپٹ کے ساتھ فراہم کرتے ہیں، جس میں تربیتی ان پٹ آؤٹ پٹ جوڑے ہوتے ہیں جو کام کو ظاہر کرتے ہیں۔ ہم پرامپٹ میں ایک ٹیسٹ ان پٹ شامل کرتے ہیں اور لینگویج ماڈل کو پرامپٹ پر کنڈیشنگ کرکے اور اگلے ٹوکنز یا الفاظ کی پیشین گوئی کرنے کی اجازت دیتے ہیں۔ یہ شاٹ لرننگ کے چند مسائل کو حل کرنے کے لیے ایک انتہائی موثر تکنیک ہے، جس میں ہم چند تربیتی نمونوں سے ایک کام سیکھتے ہیں۔

اس کے بعد، ہم دکھاتے ہیں کہ آپ سیاق و سباق میں سیکھنے کے ذریعے متعدد 20 شاٹ اور زیرو شاٹ کاموں کے لیے AlexaTM 1B کا استعمال کیسے کر سکتے ہیں۔ پیشگی ترتیب سے ترتیب والے ماڈلز کے برعکس، AlexaTM 20B کو ڈینوائزنگ کے علاوہ کازل لینگویج ماڈلنگ کی تربیت دی گئی تھی، جو اسے سیاق و سباق میں سیکھنے کے لیے ایک اچھا ماڈل بناتی ہے۔

1 شاٹ متن کا خلاصہ

متن کا خلاصہ ڈیٹا کو مختصر کرنے اور ایک خلاصہ تخلیق کرنے کا کام ہے جو اصل متن میں موجود سب سے اہم معلومات کی نمائندگی کرتا ہے۔ 1 شاٹ ٹیکسٹ سمریائزیشن سے مراد وہ ترتیب ہے جہاں ہم ایک تربیتی نمونے کی بنیاد پر متن کا خلاصہ کرنا سیکھتے ہیں۔ درج ذیل کوڈ سے متن کا خلاصہ نمونہ ہے۔ XSUM ڈیٹاسیٹ:

train_article = "The announcement ends months of uncertainty for Cornish Language Partnership staff whose contracts had been due to end. Local government minister Andrew Stunnell said the three-year funding package for the service would help make sure the language survived. But he warned that long term funding should come from Cornwall. He said it was "important to make sure the Cornish were given the opportunity to put down sound foundations." "In the longer term support for the Cornish language is going to be something which is going to have to be based in Cornwall and will not come from London," he added. The Cornish Language Partnership's, Jennifer Lowe, said: "We can now plan for the future thanks to the funding." The United Nations recently upgraded the status of the Cornish language from "extinct" to "critically endangered". It is thought fewer than 500 people worldwide are fluent in the language.""
                
train_summary = "The government is spending nearly £400,000 to help save the Cornish language."

test_article = "Torrents of water brought down a suspended ceiling and damaged stock "
                "in the Victoria Centre store at about 22:40 BST on Tuesday. Managers "
                "had hoped for a weekend reopening but it is now closed "until "
                "further notice". Staff have been helping with the clean-up "
                "operation. Water poured through from a rooftop room, leaving the "
                "top floor under three inches of water and stock "significantly" "
                "damaged. A spokeswoman said: "Our teams are working around the "
                "clock to get the shop open as quickly as possible and we're sorry "
                "for the inconvenience this has caused to our customers.""

جب صرف ایک تربیتی نمونہ فراہم کیا جاتا ہے تو ہم خلاصہ کے لیے درج ذیل پرامپٹ کا استعمال کرتے ہیں۔ ماڈل سے تیار کردہ متن کو ٹیسٹ مضمون کی پیشین گوئی کے خلاصے کے طور پر سمجھا جاتا ہے۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی

آؤٹ پٹ مندرجہ ذیل ہے:

AlexaTM 20B output: 'The top floor of a London department store has been flooded.'

1 شاٹ قدرتی زبان کی نسل

فطری زبان کی نسل ان پٹ ٹیکسٹ کو دیکھتے ہوئے متن کی داستانیں تیار کرنے کا کام ہے۔ مندرجہ ذیل نمونہ سے تربیتی نمونہ دکھاتا ہے۔ E2E ڈیٹاسیٹ:

train_inp = "name[The Punter], food[Indian], priceRange[cheap]"
train_out = "The Punter provides Indian food in the cheap price range."

test_inp = "name[Blue Spice], eatType[coffee shop], area"

جب صرف ایک تربیتی نمونہ (1 شاٹ) فراہم کیا جاتا ہے تو ہم فطری زبان کی تخلیق کے لیے درج ذیل پرامپٹ استعمال کرتے ہیں۔ ماڈل سے تیار کردہ متن کو ٹیسٹ ان پٹ (test_inp).

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی

آؤٹ پٹ مندرجہ ذیل ہے:

AlexaTM 20B output: 'Blue Spice is a coffee shop in the city centre. '

1 شاٹ مشین کا ترجمہ

مشینی ترجمہ ایک زبان سے دوسری زبان میں متن کا ترجمہ کرنے کا کام ہے۔ مندرجہ ذیل مثال سے تربیتی نمونہ دکھاتا ہے۔ WMT19 ڈیٹاسیٹ جس میں ہمیں جرمن سے انگریزی میں ترجمہ کرنے کی ضرورت ہے:

train_inp = "Das Parlament erhebt sich zu einer Schweigeminute."
train_out = "The House rose and observed a minute' s silence"

test_inp = "Kleingärtner bewirtschaften den einstigen Grund von Bauern."

جب صرف ایک تربیتی نمونہ (1 شاٹ) فراہم کیا جاتا ہے تو ہم مشینی ترجمہ کے لیے درج ذیل پرامپٹ استعمال کرتے ہیں۔ ماڈل سے تیار کردہ متن کو ٹیسٹ ان پٹ کے ترجمہ سے تعبیر کیا جاتا ہے (test_inp).

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی

آؤٹ پٹ مندرجہ ذیل ہے:

AlexaTM 20B translation: 'Gardeners cultivate the former land of farmers.'

زیرو شاٹ ایکسٹریکٹیو سوال کا جواب دینا

استخراجی سوال کا جواب دینے کا کام سیاق و سباق کے پیراگراف سے کسی سوال کا جواب تلاش کرنا ہے۔ مندرجہ ذیل سیاق و سباق کی ایک مثال اور سے ایک سوال ہے۔ اسکواڈ v2 ڈیٹاسیٹ:

test_context = "The Normans (Norman: Nourmands; French: Normands; Latin: Normanni) were the people who in the 10th and 11th centuries gave their name to Normandy, a region in France. They were descended from Norse ("Norman" comes from "Norseman") raiders and pirates from Denmark, Iceland and Norway who, under their leader Rollo, agreed to swear fealty to King Charles III of West Francia. Through generations of assimilation and mixing with the native Frankish and Roman-Gaulish populations, their descendants would gradually merge with the Carolingian-based cultures of West Francia. The distinct cultural and ethnic identity of the Normans emerged initially in the first half of the 10th century, and it continued to evolve over the succeeding centuries."
test_question = "In what country is Normandy located?"

نوٹ کریں کہ ہمارے پاس اپنے کام کے لیے کوئی تربیتی نمونہ نہیں ہے۔ اس کے بجائے، ہم پرامپٹ میں آخری لفظ کے بارے میں ایک ڈمی سوال بناتے ہیں۔ test_context (ڈمی شاٹ) لہذا، ہم اصل میں صفر شاٹ نکالنے والے سوال کا جواب دے رہے ہیں۔

جب کوئی تربیتی نمونہ فراہم نہیں کیا جاتا ہے تو ہم استخراجی سوال کے جوابات کے لیے درج ذیل پرامپٹ استعمال کرتے ہیں۔ ماڈل سے تیار کردہ متن کو ٹیسٹ سوال کے جواب کے طور پر سمجھا جاتا ہے۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی

آؤٹ پٹ مندرجہ ذیل ہے:

AlexaTM 20B output: 'France'

فوری انجینئرنگ

فوری انجینئرنگ کبھی کبھی ایک فن بن سکتی ہے۔ یہاں تک کہ پرامپٹ ٹیمپلیٹ میں چھوٹی تبدیلیاں بھی کسی مخصوص کام پر ماڈل کی کارکردگی میں نمایاں تبدیلیاں لا سکتی ہیں۔ اچھے پرامپٹ ٹیمپلیٹس لکھنے کے لیے چند مشورے درج ذیل ہیں۔ سب سے پہلے، یہ یاد رکھنا ضروری ہے کہ ماڈل کو حقیقی جملوں کی ساخت (کازل لینگویج ماڈلنگ) سیکھنے کی تربیت دی گئی تھی۔ اس طرح، یہ یقینی بنانا بہتر ہے کہ آپ کا پرامپٹ ٹیمپلیٹ فطری زبان میں گرامر اور ساختی طور پر درست ہے۔ دوسرا، یہ مخصوص ماڈل ڈمی شاٹس سے فائدہ اٹھاتا ہے تاکہ اسے جواب میں متوقع ڈھانچہ سکھانے میں مدد ملے، جیسا کہ اوپر دکھایا گیا ہے۔ تیسرا، یہ ہمیشہ مشورہ دیا جاتا ہے کہ امیدواروں کے پرامپٹ ٹیمپلیٹس کی ایک قسم پر کام کی کارکردگی کا جائزہ لیں۔ پرامپٹ سورس اور قدرتی ہدایات پرامپٹ ٹیمپلیٹس کو معیاری بنانے کے لیے دو اوپن سورس فریم ورک ہیں، اور یہ موجودہ ماڈلنگ کے کاموں کے لیے استعمال کیے جانے والے متعدد مثال کے اشارے فراہم کرتے ہیں۔ مزید برآں، کا ضمیمہ B AlexaTM 20B کاغذ کاغذ میں پیش کردہ نتائج پیدا کرنے کے لیے استعمال کیے جانے والے پرامپٹ ٹیمپلیٹس فراہم کرتا ہے۔ ایک بڑھتا ہوا ذیلی فیلڈ ہے جو کسی کام کے لیے بہترین اشارے کی خودکار تخلیق اور سیکھنے کے لیے وقف ہے، جس میں قدرتی زبان اور مسلسل اشارے دونوں شامل ہیں۔ یہ اس ٹیوٹوریل کے دائرہ کار سے باہر ہے۔

نتیجہ

اس پوسٹ میں، ہم نے دکھایا کہ الیکسا ٹی ایم 20 بی ماڈل کو سیج میکر اینڈ پوائنٹ پر کیسے تعینات کیا جائے اور اندازہ لگایا جائے۔ آپ AlexaTM 20B ماڈل کو سیاق و سباق میں سیکھنے کے لیے استعمال کر سکتے ہیں مختلف شاٹ سیکھنے کے کاموں کے لیے۔ AlexaTM 20B کے بارے میں مزید جاننے کے لیے، رجوع کریں۔ 20B-پیرامیٹر Alexa ماڈل چند شاٹ لرننگ میں نئے نشانات مرتب کرتا ہے۔ یا اصل کاغذ.

مصنفین اس لانچ کو ممکن بنانے میں Maciej Rudnicki، Jakub Debski، Ashish Khetan، Anastasiia Dubinina، Vitaliy Korolev، Karl Albertsen، Saleh Soltan، اور Mariusz Momotko کے تکنیکی تعاون کو تسلیم کرنا چاہیں گے۔


جمپ اسٹارٹ کے بارے میں

JumpStart Amazon SageMaker کا مشین لرننگ (ML) مرکز ہے جو 350 سے زیادہ پہلے سے تربیت یافتہ ماڈلز، بلٹ ان الگورتھم، اور پہلے سے تعمیر شدہ حل ٹیمپلیٹس پیش کرتا ہے تاکہ آپ کو ML کے ساتھ تیزی سے آغاز کرنے میں مدد ملے۔ جمپ سٹارٹ مقبول ماڈل ہب جیسے TensorFlow، PyTorch، Hugging Face، اور MXNet سے جدید ترین ماڈلز کی میزبانی کرتا ہے، جو کہ مقبول ML کاموں جیسے آبجیکٹ کا پتہ لگانے، ٹیکسٹ کی درجہ بندی، اور ٹیکسٹ جنریشن کی حمایت کرتے ہیں۔ ایم ایل ریسرچ کمیونٹی نے حال ہی میں تیار کردہ زیادہ تر ماڈلز کو عوامی طور پر استعمال کے لیے دستیاب کرنے کے لیے بہت زیادہ کوششیں کی ہیں۔ جمپ اسٹارٹ کا مقصد ایم ایل ماڈلز اور الگورتھم کو درست تلاش کرنے میں آپ کی مدد کرنا ہے، اور فوری طور پر ماڈلز بنانا شروع کر دیں۔ خاص طور پر، جمپ اسٹارٹ درج ذیل فوائد فراہم کرتا ہے:

  • UI اور SDK کے ساتھ آسان رسائی - آپ SageMaker Python SDK کا استعمال کرتے ہوئے یا Amazon SageMaker Studio میں JumpStart UI کے ذریعے JumpStart میں ماڈلز اور الگورتھم تک رسائی حاصل کر سکتے ہیں۔ فی الحال، AlexaTM 20B صرف SageMaker Python SDK کے ذریعے قابل رسائی ہے۔
  • SageMaker بلٹ ان الگورتھم – JumpStart 350 سے زیادہ بلٹ ان الگورتھم اور پہلے سے تربیت یافتہ ماڈلز فراہم کرتا ہے، اس کے ساتھ متعلقہ ٹریننگ اسکرپٹس (اگر تعاون یافتہ ہوں)، انفرنسنگ اسکرپٹس، اور مثال کے طور پر نوٹ بک۔ اسکرپٹس کو ہر فریم ورک اور کام کے لیے بہتر بنایا گیا ہے، اور GPU سپورٹ، آٹومیٹک ماڈل ٹیوننگ اور انکریمنٹل ٹریننگ جیسی خصوصیات فراہم کرتا ہے۔ اسکرپٹس کو SageMaker مثالوں اور خصوصیات کے خلاف بھی آزمایا جاتا ہے تاکہ آپ مطابقت کے مسائل کا شکار نہ ہوں۔
  • پہلے سے تیار کردہ حل - جمپ سٹارٹ عام ML استعمال کے معاملات کے لیے 23 حل فراہم کرتا ہے، جیسے کہ ڈیمانڈ کی پیشن گوئی اور صنعتی اور مالیاتی ایپلی کیشنز، جنہیں آپ صرف چند کلکس کے ساتھ تعینات کر سکتے ہیں۔ سولیوشنز اینڈ ٹو اینڈ ایم ایل ایپلی کیشنز ہیں جو مختلف AWS سروسز کو ایک ساتھ جوڑ کر کسی خاص کاروباری استعمال کے معاملے کو حل کرتی ہیں۔ وہ فوری تعیناتی کے لیے AWS CloudFormation ٹیمپلیٹس اور ریفرنس آرکیٹیکچرز کا استعمال کرتے ہیں، جس کا مطلب ہے کہ وہ مکمل طور پر حسب ضرورت ہیں۔
  • سپورٹ - سیج میکر کئی طرح کی سپورٹ فراہم کرتا ہے، جیسے سیج میکر کے نئے فیچرز یا ڈیپ لرننگ کنٹینر ورژنز جاری ہونے پر اپ ٹو ڈیٹ ورژنز کو برقرار رکھنا، اور سیج میکر ماحول میں جمپ اسٹارٹ مواد کو استعمال کرنے کے طریقے کے بارے میں دستاویزات بنانا۔

جمپ اسٹارٹ کے بارے میں مزید جاننے کے لیے اور آپ اوپن سورس پری ٹرینڈ ماڈلز کو مختلف قسم کے دیگر ایم ایل کاموں کے لیے کیسے استعمال کر سکتے ہیں، درج ذیل کو دیکھیں AWS re: Invent 2020 ویڈیو.


مصنفین کے بارے میں

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عیڈاکٹر وویک مدن Amazon SageMaker جمپ سٹارٹ ٹیم کے ساتھ ایک اپلائیڈ سائنٹسٹ ہے۔ انہوں نے Urbana-Champaign میں یونیورسٹی آف الینوائے سے پی ایچ ڈی کی اور جارجیا ٹیک میں پوسٹ ڈاکٹریٹ ریسرچر تھے۔ وہ مشین لرننگ اور الگورتھم ڈیزائن میں ایک فعال محقق ہے اور اس نے EMNLP، ICLR، COLT، FOCS، اور SODA کانفرنسوں میں مقالے شائع کیے ہیں۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عیجیک فٹز جیرالڈ Alexa AI کے ساتھ ایک سینئر اپلائیڈ سائنسدان ہیں، جہاں وہ فی الحال بڑی زبان کی ماڈلنگ، کثیر لسانی ٹیکسٹ ماڈلنگ، اور مشین لرننگ آپریشنز پر توجہ مرکوز کر رہے ہیں۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عیجواؤ مورا ایمیزون ویب سروسز میں ایک AI/ML ماہر حل آرکیٹیکٹ ہے۔ وہ زیادہ تر NLP کے استعمال کے معاملات پر توجہ مرکوز کرتا ہے اور صارفین کو گہری سیکھنے کے ماڈل کی تربیت اور تعیناتی کو بہتر بنانے میں مدد کرتا ہے۔ وہ کم کوڈ ایم ایل سلوشنز اور ایم ایل اسپیشلائزڈ ہارڈ ویئر کا ایک فعال حامی بھی ہے۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عی جون جیت گیا۔ سیج میکر جمپ اسٹارٹ اور بلٹ ان الگورتھم کے ساتھ پروڈکٹ مینیجر ہے۔ وہ سیج میکر کے صارفین کے لیے ایم ایل مواد کو آسانی سے قابل دریافت اور قابل استعمال بنانے پر توجہ مرکوز کرتا ہے۔

AlexaTM 20B اب Amazon SageMaker JumpStart PlatoBlockchain Data Intelligence میں دستیاب ہے۔ عمودی تلاش۔ عیپلکت کپور Alexa AI کے ساتھ Alexa Teacher Model پروگرام کے لیے پروڈکٹ لیڈ ہے، جو الیکسا کے ملٹی ٹاسک ملٹی موڈل فاؤنڈیشن ماڈلز کی عمومی ذہانت اور ایپلی کیشنز پر توجہ مرکوز کرتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ