میٹا سے کوڈ لاما کوڈ جنریشن ماڈلز اب ایمیزون سیج میکر جمپ اسٹارٹ کے ذریعے دستیاب ہیں۔ ایمیزون ویب سروسز

میٹا سے کوڈ لاما کوڈ جنریشن ماڈلز اب ایمیزون سیج میکر جمپ اسٹارٹ کے ذریعے دستیاب ہیں۔ ایمیزون ویب سروسز

آج، ہم یہ اعلان کرتے ہوئے بہت پرجوش ہیں کہ میٹا کے تیار کردہ کوڈ لاما فاؤنڈیشن ماڈلز صارفین کے لیے دستیاب ہیں۔ ایمیزون سیج میکر جمپ اسٹارٹ چلانے کا اندازہ لگانے کے لیے ایک کلک کے ساتھ تعینات کرنا۔ کوڈ لاما ایک جدید ترین لارج لینگویج ماڈل (LLM) ہے جو کوڈ اور قدرتی زبان کے اشارے دونوں سے کوڈ کے بارے میں کوڈ اور قدرتی زبان پیدا کرنے کی صلاحیت رکھتا ہے۔ کوڈ لاما تحقیق اور تجارتی استعمال کے لیے مفت ہے۔ آپ اس ماڈل کو SageMaker JumpStart کے ساتھ آزما سکتے ہیں، جو ایک مشین لرننگ (ML) مرکز ہے جو الگورتھم، ماڈلز، اور ML حل تک رسائی فراہم کرتا ہے تاکہ آپ ML کے ساتھ تیزی سے شروعات کر سکیں۔ اس پوسٹ میں، ہم SageMaker JumpStart کے ذریعے کوڈ لاما ماڈل کو دریافت کرنے اور اسے تعینات کرنے کے طریقہ پر چلتے ہیں۔

کوڈ لاما کیا ہے؟

کوڈ لاما کی طرف سے جاری کردہ ایک ماڈل ہے۔ میٹا جو کہ Llama 2 کے اوپر بنایا گیا ہے اور ایک جدید ترین ماڈل ہے جو ڈویلپرز کے لیے پروگرامنگ کے کاموں کے لیے پیداواری صلاحیت کو بہتر بنانے کے لیے ڈیزائن کیا گیا ہے تاکہ وہ اعلیٰ معیار کا، اچھی طرح سے دستاویزی کوڈ بنانے میں مدد کر سکیں۔ ماڈلز Python، C++، Java، PHP، C#، TypeScript، اور Bash میں جدید ترین کارکردگی دکھاتے ہیں، اور ان میں ڈویلپرز کا وقت بچانے اور سافٹ ویئر ورک فلو کو مزید موثر بنانے کی صلاحیت ہے۔ یہ تین قسموں میں آتا ہے، جس میں وسیع اقسام کی ایپلی کیشنز کا احاطہ کرنے کے لیے انجنیئر کیا گیا ہے: فاؤنڈیشنل ماڈل (کوڈ لاما)، ایک ازگر کا خصوصی ماڈل (کوڈ لاما-پائیتھون)، اور قدرتی زبان کی ہدایات کو سمجھنے کے لیے ہدایات کے بعد ایک ماڈل (کوڈ للاما-انسٹرکٹ )۔ تمام کوڈ لاما ویریئنٹس تین سائزوں میں آتے ہیں: 7B، 13B، اور 34B پیرامیٹرز۔ 7B اور 13B بیس اور انسٹرکٹ ویریئنٹس آس پاس کے مواد کی بنیاد پر انفللنگ کو سپورٹ کرتے ہیں، انہیں کوڈ اسسٹنٹ ایپلی کیشنز کے لیے مثالی بناتے ہیں۔

ماڈلز کو Llama 2 کو بنیاد کے طور پر استعمال کرتے ہوئے ڈیزائن کیا گیا تھا اور پھر کوڈ ڈیٹا کے 500 بلین ٹوکنز پر تربیت دی گئی تھی، جس میں Python کے خصوصی ورژن کو 100 بلین ٹوکنز پر تربیت دی گئی تھی۔ کوڈ لاما ماڈلز مستحکم نسلوں کو سیاق و سباق کے 100,000 ٹوکن تک فراہم کرتے ہیں۔ تمام ماڈلز کو 16,000 ٹوکنز کی ترتیب پر تربیت دی جاتی ہے اور 100,000 ٹوکنز تک کے ان پٹ پر بہتری دکھاتے ہیں۔

ماڈل اسی کے تحت دستیاب کرایا گیا ہے۔ لاما 2 کے بطور کمیونٹی لائسنس۔

سیج میکر جمپ اسٹارٹ کیا ہے؟

SageMaker JumpStart کے ساتھ، ML پریکٹیشنرز بہترین کارکردگی کا مظاہرہ کرنے والے فاؤنڈیشن ماڈلز کی بڑھتی ہوئی فہرست میں سے انتخاب کر سکتے ہیں۔ ایم ایل پریکٹیشنرز فاؤنڈیشن ماڈلز کو وقف کر سکتے ہیں۔ ایمیزون سیج میکر ایک نیٹ ورک الگ تھلگ ماحول میں مثالیں اور ماڈل ٹریننگ اور تعیناتی کے لیے SageMaker کا استعمال کرتے ہوئے ماڈلز کو اپنی مرضی کے مطابق بنائیں۔

اب آپ چند کلکس کے ساتھ کوڈ لاما ماڈلز کو دریافت اور تعینات کر سکتے ہیں۔ ایمیزون سیج میکر اسٹوڈیو یا پروگرامی طور پر SageMaker Python SDK کے ذریعے، آپ کو SageMaker خصوصیات کے ساتھ ماڈل کی کارکردگی اور MLOps کنٹرول حاصل کرنے کے قابل بناتا ہے جیسے ایمیزون سیج میکر پائپ لائنز, ایمیزون سیج میکر ڈیبگر، یا کنٹینر لاگز۔ ماڈل کو AWS محفوظ ماحول میں اور آپ کے VPC کنٹرولز کے تحت تعینات کیا گیا ہے، جو ڈیٹا کی حفاظت کو یقینی بنانے میں مدد کرتا ہے۔ کوڈ لاما ماڈلز قابل دریافت ہیں اور انہیں یو ایس ایسٹ (این. ورجینیا)، یو ایس ویسٹ (اوریگون) اور یورپ (آئرلینڈ) کے علاقوں میں تعینات کیا جا سکتا ہے۔

ماڈل ویزا SageMaker SDK کو تعینات کرنے کے لیے صارفین کو EULA کو قبول کرنا چاہیے۔

ماڈلز دریافت کریں۔

آپ SageMaker Studio UI اور SageMaker Python SDK میں SageMaker JumpStart کے ذریعے Code Llama فاؤنڈیشن ماڈلز تک رسائی حاصل کر سکتے ہیں۔ اس سیکشن میں، ہم سیج میکر اسٹوڈیو میں ماڈلز کو دریافت کرنے کا طریقہ دیکھتے ہیں۔

سیج میکر اسٹوڈیو ایک مربوط ترقیاتی ماحول (IDE) ہے جو ایک واحد ویب پر مبنی بصری انٹرفیس فراہم کرتا ہے جہاں آپ ڈیٹا کی تیاری سے لے کر اپنے ML ماڈلز کی تعمیر، تربیت، اور تعیناتی تک تمام ML ترقیاتی مراحل کو انجام دینے کے لیے مقصد کے لیے بنائے گئے ٹولز تک رسائی حاصل کر سکتے ہیں۔ شروع کرنے اور SageMaker اسٹوڈیو کو ترتیب دینے کے طریقے کے بارے میں مزید تفصیلات کے لیے، رجوع کریں۔ ایمیزون سیج میکر اسٹوڈیو.

سیج میکر اسٹوڈیو میں، آپ سیج میکر جمپ سٹارٹ تک رسائی حاصل کر سکتے ہیں، جس میں پہلے سے تربیت یافتہ ماڈل، نوٹ بکس، اور پہلے سے تیار کردہ حل شامل ہیں۔ پہلے سے تعمیر شدہ اور خودکار حل.

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

سیج میکر جمپ سٹارٹ لینڈنگ پیج پر، آپ حل، ماڈل، نوٹ بک اور دیگر وسائل کو براؤز کر سکتے ہیں۔ آپ کوڈ لاما ماڈلز میں تلاش کر سکتے ہیں۔ فاؤنڈیشن ماڈلز: ٹیکسٹ جنریشن carousel

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

آپ منتخب کر کے ماڈل کی دوسری قسمیں بھی تلاش کر سکتے ہیں۔ تمام ٹیکسٹ جنریشن ماڈلز کو دریافت کریں۔ یا کوڈ لاما کی تلاش۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

آپ ماڈل کے بارے میں تفصیلات دیکھنے کے لیے ماڈل کارڈ کا انتخاب کر سکتے ہیں جیسے کہ لائسنس، تربیت کے لیے استعمال ہونے والا ڈیٹا، اور استعمال کرنے کا طریقہ۔ آپ کو دو بٹن بھی ملیں گے، تعینات اور نوٹ بک کھولیں۔، جو آپ کو ماڈل استعمال کرنے میں مدد کرے گا۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.

تعینات

جب آپ کا انتخاب کریں تعینات اور شرائط کو تسلیم کریں، تعیناتی شروع ہو جائے گی۔ متبادل طور پر، آپ مثال نوٹ بک کے ذریعے منتخب کر کے تعینات کر سکتے ہیں۔ نوٹ بک کھولیں۔. مثال کے طور پر نوٹ بک جو ماڈل کو اندازہ لگانے اور وسائل کو صاف کرنے کے طریقے کے بارے میں آخر سے آخر تک رہنمائی فراہم کرتی ہے۔

نوٹ بک کا استعمال کرتے ہوئے تعینات کرنے کے لیے، ہم ایک مناسب ماڈل کو منتخب کرکے شروع کرتے ہیں، جس کی وضاحت کی گئی ہے۔ model_id. آپ مندرجہ ذیل کوڈ کے ساتھ SageMaker پر کسی بھی منتخب ماڈل کو تعینات کر سکتے ہیں:

from sagemaker.jumpstart.model import JumpStartModel model = JumpStartModel(model_id="meta-textgeneration-llama-codellama-7b")
predictor = model.deploy()

یہ ماڈل کو ڈیفالٹ کنفیگریشنز کے ساتھ SageMaker پر تعینات کرتا ہے، بشمول ڈیفالٹ مثال کی قسم اور ڈیفالٹ VPC کنفیگریشنز۔ آپ ان کنفیگریشنز کو غیر ڈیفالٹ ویلیوز بتا کر تبدیل کر سکتے ہیں۔ جمپ اسٹارٹ ماڈل. اس کے تعینات ہونے کے بعد، آپ SageMaker پیشن گوئی کے ذریعے تعینات اختتامی نقطہ کے خلاف تخمینہ چلا سکتے ہیں:

payload = { "inputs": "<s>[INST] How do I deploy a model on Amazon SageMaker? [/INST]", "parameters": {"max_new_tokens": 512, "temperature": 0.2, "top_p": 0.9}
}
predictor.predict(payload, custom_attributes="accept_eula=true")

نوٹ کریں کہ بطور ڈیفالٹ، accept_eula کرنے کے لئے مقرر کیا گیا ہے false. آپ کو سیٹ کرنے کی ضرورت ہے۔ accept_eula=true اختتامی نقطہ کو کامیابی سے شروع کرنے کے لیے۔ ایسا کرنے سے، آپ صارف کے لائسنس کے معاہدے اور قابل قبول استعمال کی پالیسی کو قبول کرتے ہیں جیسا کہ پہلے ذکر کیا گیا ہے۔ آپ بھی ڈاؤن لوڈ، اتارنا لائسنس کا معاہدہ.

Custom_attributes EULA کو پاس کرنے کے لیے استعمال کیا جاتا ہے کلیدی/قدر کے جوڑے۔ کلید اور قدر کو = سے الگ کیا جاتا ہے اور جوڑوں کو ؛ سے الگ کیا جاتا ہے۔ اگر صارف ایک ہی کلید کو ایک سے زیادہ بار پاس کرتا ہے، تو آخری قدر رکھی جاتی ہے اور اسکرپٹ ہینڈلر کو بھیج دی جاتی ہے (اس صورت میں، مشروط منطق کے لیے استعمال کیا جاتا ہے)۔ مثال کے طور پر، اگر accept_eula=false; accept_eula=true پھر سرور کو منتقل کیا جاتا ہے۔ accept_eula=true رکھا جاتا ہے اور اسکرپٹ ہینڈلر کو دیا جاتا ہے۔

انفرنس پیرامیٹرز اختتامی نقطہ پر ٹیکسٹ جنریشن کے عمل کو کنٹرول کرتے ہیں۔ زیادہ سے زیادہ نئے ٹوکن کنٹرول سے مراد ماڈل کے ذریعہ تیار کردہ آؤٹ پٹ کا سائز ہے۔ نوٹ کریں کہ یہ الفاظ کی تعداد کے برابر نہیں ہے کیونکہ ماڈل کی الفاظ انگریزی زبان کے الفاظ کے برابر نہیں ہیں، اور ہر ٹوکن انگریزی زبان کا لفظ نہیں ہو سکتا۔ درجہ حرارت آؤٹ پٹ میں بے ترتیب پن کو کنٹرول کرتا ہے۔ اعلی درجہ حرارت کے نتیجے میں زیادہ تخلیقی اور فریب کاری پیدا ہوتی ہے۔ تمام قیاس کے پیرامیٹرز اختیاری ہیں۔

مندرجہ ذیل جدول SageMaker JumpStart میں دستیاب تمام کوڈ لاما ماڈلز کی فہرست کے ساتھ ماڈل IDs، پہلے سے طے شدہ مثال کی اقسام، اور زیادہ سے زیادہ معاون ٹوکنز (ان پٹ ٹوکنز کی تعداد اور تمام ہم آہنگی درخواستوں کے لیے تیار کردہ ٹوکنز کی تعداد) کے ساتھ ہر ایک کے لیے تعاون یافتہ ہے۔ ان ماڈلز.

ماڈل کا نام ماڈل کی شناخت پہلے سے طے شدہ مثال کی قسم زیادہ سے زیادہ تعاون یافتہ ٹوکنز
CodeLlama-7b meta-textgeneration-llama-codellama-7b ml.g5.2xlarge 10000
CodeLlama-7b-انسٹرکٹ meta-textgeneration-llama-codellama-7b-ہدایت ml.g5.2xlarge 10000
CodeLlama-7b-Python meta-textgeneration-llama-codellama-7b-python ml.g5.2xlarge 10000
CodeLlama-13b meta-textgeneration-llama-codellama-13b ml.g5.12xlarge 32000
CodeLlama-13b-انسٹرکٹ meta-textgeneration-llama-codellama-13b-ہدایت ml.g5.12xlarge 32000
CodeLlama-13b-Python meta-textgeneration-llama-codellama-13b-python ml.g5.12xlarge 32000
CodeLlama-34b meta-textgeneration-llama-codellama-34b ml.g5.48xlarge 48000
CodeLlama-34b-انسٹرکٹ meta-textgeneration-llama-codellama-34b-ہدایت ml.g5.48xlarge 48000
CodeLlama-34b-Python meta-textgeneration-llama-codellama-34b-python ml.g5.48xlarge 48000

جب کہ کوڈ لاما ماڈلز کو 16,000 ٹوکنز کی سیاق و سباق کی لمبائی پر تربیت دی گئی تھی، ماڈلز نے اس سے بھی بڑی سیاق و سباق والی ونڈوز پر اچھی کارکردگی کی اطلاع دی ہے۔ پچھلے جدول میں زیادہ سے زیادہ تعاون یافتہ ٹوکن کالم ڈیفالٹ مثال کی قسم پر معاون سیاق و سباق کی ونڈو کی اوپری حد ہے۔ چونکہ کوڈ Llama 7B ماڈل ایک ml.g10,000xlarge مثال پر صرف 5.2 ٹوکن کو سپورٹ کر سکتا ہے، اس لیے اگر آپ کی درخواست کے لیے بڑے سیاق و سباق کی ضرورت ہو تو ہم 13B یا 34B ماڈل ورژن کو تعینات کرنے کی تجویز کرتے ہیں۔

پہلے سے طے شدہ طور پر، تمام ماڈلز کوڈ جنریشن کے کاموں کے لیے کام کرتے ہیں۔ بیس اور انسٹرکٹس ماڈل دونوں کاموں کو بھرنے کا جواب دیتے ہیں، حالانکہ بیس ماڈل میں نمونہ کے سوالات کی اکثریت کے لیے بہتر معیار کی پیداوار تھی۔ آخر میں، صرف ماڈلز کو ہدایت کے کاموں پر کام کرنے کی ہدایت کرتے ہیں۔ مندرجہ ذیل جدول واضح کرتا ہے کہ کن ماڈلز کی کارکردگی اچھی ہے (اچھی) ​​اور معتدل کارکردگی (اعتدال پسند) مثال کے طور پر ڈیمو نوٹ بک میں سوالات۔

. کوڈ جنریشن کوڈ انفلنگ کوڈ کی ہدایات
CodeLlama-7b بہتر بہتر N / A
CodeLlama-7b-انسٹرکٹ بہتر اعتدال پسند بہتر
CodeLlama-7b-Python بہتر N / A N / A
CodeLlama-13b بہتر بہتر N / A
CodeLlama-13b-انسٹرکٹ بہتر اعتدال پسند بہتر
CodeLlama-13b-Python بہتر N / A N / A
CodeLlama-34b بہتر N / A N / A
CodeLlama-34b-انسٹرکٹ بہتر N / A بہتر
CodeLlama-34b-Python بہتر N / A N / A

کوڈ جنریشن

درج ذیل مثالیں CodeLlama-34b-Instruct ماڈل پر پے لوڈ پیرامیٹرز کے ساتھ چلائی گئیں۔ "parameters": {"max_new_tokens": 256, "temperature": 0.2, "top_p": 0.9}:

Input
import socket def ping_exponential_backoff(host: str): Output """ Ping a host using exponential backoff. """ for i in range(1, 10): try: socket.gethostbyname(host) return True except socket.gaierror: time.sleep(2 ** i) return False Input
import argparse def main(string: str): print(string) print(string[::-1]) if __name__ == "__main__": Output parser = argparse.ArgumentParser() parser.add_argument("string", help="String to be printed") args = parser.parse_args() main(args.string)

کوڈ بھرنا

کوڈ بھرنے میں ارد گرد کے سیاق و سباق کو دیکھتے ہوئے تیار کردہ کوڈ کو واپس کرنا شامل ہے۔ یہ کوڈ جنریشن ٹاسک سے مختلف ہے کیونکہ، پریفکس کوڈ سیگمنٹ کے علاوہ، ماڈل کو کوڈ سیگمنٹ کا لاحقہ بھی فراہم کیا جاتا ہے۔ سابقہ ​​​​کے آغاز کو نشان زد کرنے کے لئے فائن ٹیوننگ کے دوران خصوصی ٹوکن استعمال کیے گئے تھے (<PRE>لاحقہ کا آغاز (<SUF>) اور وسط کا آغاز (<MID>)۔ ماڈل میں ان پٹ کی ترتیب درج ذیل فارمیٹس میں سے کسی ایک میں ہونی چاہیے:

  • prefix-sufix-middle - <PRE> {prefix} <SUF>{suffix} <MID>
  • suffix-prefix-middle - <PRE> <SUF>{suffix} <MID> {prefix}

درج ذیل مثالیں CodeLlama-7b ماڈل پر پے لوڈ کے ساتھ سابقہ ​​لاحقہ درمیانی شکل کا استعمال کرتی ہیں parameters {"max_new_tokens": 256, "temperature": 0.05, "top_p": 0.9}:

Input
<PRE> def remove_non_ascii(s: str) -> str: """ <SUF> return result <MID> Output Remove non-ASCII characters from a string. :param s: The string to remove non-ASCII characters from. :return: The string with non-ASCII characters removed. """ result = "" for c in s: if ord(c) < 128: result += c Input
# Installation instructions: ```bash
<FILL> ```
This downloads the LLaMA inference code and installs the repository as a local pip package. Output git clone https://github.com/LLaMA-AI/LLaMA-inference.git cd LLaMA-inference pip install -e . Input
class InterfaceManagerFactory(AbstractManagerFactory): def __init__(<FILL>
def main(): factory = InterfaceManagerFactory(start=datetime.now()) managers = [] for i in range(10): managers.append(factory.build(id=i)) Output
self, start=None): self.start = start def build(self, id): return InterfaceManager(id, self.start) Input
/-- A quasi-prefunctoid is 1-connected iff all its etalisations are 1-connected. -/
theorem connected_iff_etalisation [C D : precategoroid] (P : quasi_prefunctoid C D) : π₁ P = 0 ↔ <FILL> = 0 :=
begin split, { intros h f, rw pi_1_etalisation at h, simp [h], refl }, { intro h, have := @quasi_adjoint C D P, simp [←pi_1_etalisation, this, h], refl }
end Output
∀ f : C ⟶ D, π₁ (P.etalise f)

کوڈ کی ہدایات

میٹا نے کوڈ لاما کا ایک انسٹرکشن ٹیونڈ ویرینٹ بھی فراہم کیا۔ اس سیکشن میں مثال کے سوالات کا اطلاق صرف ان انسٹرکشن ٹیونڈ کوڈ لاما ماڈلز پر کیا جا سکتا ہے، جو ماڈل ID انسٹرکٹ لاحقہ والے ماڈل ہیں۔ ہدایات کے لیے کوڈ لاما فارمیٹ Llama-2-chat prompt فارمیٹ جیسا ہی ہے، جس کی ہم تفصیل میں بتاتے ہیں Llama 2 فاؤنڈیشن ماڈل اب SageMaker JumpStart میں دستیاب ہیں۔

ایک سادہ یوزر پرامپٹ مندرجہ ذیل کی طرح نظر آ سکتا ہے:

<s>[INST] {user_prompt} [/INST]

آپ درج ذیل نحو کے ساتھ سسٹم پرامپٹ بھی شامل کر سکتے ہیں۔

<s>[INST] <<SYS>>
{system_prompt}
<</SYS>> {user_prompt} [/INST]

آخر میں، آپ ان پٹ میں تمام سابقہ ​​صارف کے اشارے اور معاون جوابات کو شامل کر کے ماڈل کے ساتھ بات چیت کر سکتے ہیں:

<s>[INST] <<SYS>>
{system_prompt}
<</SYS>> {user_prompt_1} [/INST] {assistant_response_1} </s><s>[INST] {user_prompt_1} [/INST]

یہ مثالیں CodeLlama-13b-Instruct ماڈل پر پے لوڈ پیرامیٹرز "پیرامیٹرز" کے ساتھ چلائی گئیں: {"max_new_tokens": 512, "temperature": 0.2, "top_p": 0.9}:

Input
<s>[INST] In Bash, how do I list all text files in the current directory (excluding subdirectories) that have been modified in the last month? [/INST] Output You can use the `find` command in Bash to list all text files in the current directory (excluding subdirectories) that have been modified in the last month. Here's an example command:
```
find . -type f -name "*.txt" -mtime -30
```
Here's a breakdown of the command: * `find .`: This tells `find` to search the current directory and all its subdirectories.
* `-type f`: This tells `find` to only search for files (not directories).
* `-name "*.txt"`: This tells `find` to only search for files with the `.txt` extension.
* `-mtime -30`: This tells `find` to only search for files that have been modified in the last 30 days (2,592,000 seconds). The output of the command will be a list of all text files in the current directory (excluding subdirectories) that have been modified in the last month. Input
<s>[INST] What is the difference between inorder and preorder traversal? Give an example in Python. [/INST] Output Inorder and preorder traversal are two different ways of traversing a binary tree. Inorder traversal is a way of visiting the nodes of a binary tree in a specific order. In an inorder traversal, the left subtree is visited first, then the current node, and finally the right subtree is visited. This means that the nodes are visited in a left-to-right, top-to-bottom order. Preorder traversal, on the other hand, is a way of visiting the nodes of a binary tree in a different order. In a preorder traversal, the current node is visited first, followed by the left subtree, and finally the right subtree. This means that the nodes are visited in a top-down, left-to-right order. Here is an example of an inorder traversal of a binary tree in Python:
```
def inorder_traversal(root): if root is None: return [] return inorder_traversal(root.left) + [root.val] + inorder_traversal(root.right)
```
And here is an example of a preorder traversal of a binary tree in Python:
```
def preorder_traversal(root): if root is None: return [] return [root.val] + preorder_traversal(root.left) + preorder_traversal(root.right)
```
In this example, the `inorder_traversal` function returns a list of the values in the tree in the order of the keys, from smallest to largest. The `preorder_traversal` function returns a list of the values in the tree in the order of the keys, but with the current node visited before its children. Input
<s>[INST] <<SYS>>
Provide answers in JavaScript
<</SYS>> Write a function that computes the set of sums of all contiguous sublists of a given list. [/INST] Output function contiguousSublistSums(list) { let sums = []; for (let i = 0; i < list.length; i++) { let sum = 0; for (let j = i; j < list.length; j++) { sum += list[j]; sums.push(sum); } } return sums;
} console.log(contiguousSublistSums([1, 2, 3, 4, 5])); // [1, 3, 6, 10, 15]
console.log(contiguousSublistSums([1, 2, 3, 4, 5, 6])); // [1, 3, 6, 10, 15, 21]
console.log(contiguousSublistSums([1, 2, 3, 4, 5, 6, 7])); // [1, 3, 6, 10, 15, 21, 28]
console.log(contiguousSublistSums([1, 2, 3, 4, 5, 6, 7, 8])); // [1, 3, 6, 10, 15, 21, 28, 36]
console.log(contiguousSublistSums([1, 2, 3, 4, 5, 6, 7, 8, 9])); // [1, 3, 6, 10, 15, 21, 28, 36, 45]

صاف کرو

نوٹ بک چلانے کے بعد، اس بات کو یقینی بنائیں کہ آپ نے اس عمل میں بنائے گئے تمام وسائل کو حذف کر دیا ہے تاکہ آپ کی بلنگ روک دی جائے۔ درج ذیل کوڈ کا استعمال کریں:

predictor.delete_model()
predictor.delete_endpoint()

نتیجہ

اس پوسٹ میں، ہم نے آپ کو دکھایا کہ سیج میکر اسٹوڈیو میں کوڈ لاما ماڈلز کے ساتھ کیسے آغاز کیا جائے اور کوڈ اور قدرتی زبان دونوں سے کوڈ کے بارے میں کوڈ اور فطری زبان تیار کرنے کے لیے ماڈل کو تعینات کیا جائے۔ چونکہ فاؤنڈیشن ماڈل پہلے سے تربیت یافتہ ہیں، اس لیے وہ تربیت اور بنیادی ڈھانچے کے اخراجات کو کم کرنے میں مدد کر سکتے ہیں اور آپ کے استعمال کے معاملے کے لیے حسب ضرورت کو فعال کر سکتے ہیں۔ شروع کرنے کے لیے ابھی سیج میکر اسٹوڈیو میں سیج میکر جمپ اسٹارٹ پر جائیں۔

وسائل


مصنفین کے بارے میں


Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.گیبریل سنائیو
میٹا میں فیس بک AI ریسرچ (FAIR) ٹیم کے ریسرچ ڈائریکٹر ہیں۔ میٹا سے پہلے، گیبریل پیرس میں École Normale Supérieure میں Emmanuel Dupoux کی ٹیم میں پوسٹ ڈاکٹریٹ فیلو تھا، جو بچوں میں زبان کے حصول کے لیے ریورس انجینئرنگ پر کام کرتا تھا۔ گیبریل نے یونیورسٹی آف گرینوبل سے ریئل ٹائم اسٹریٹیجی گیمز AI میں اپلائی کی گئی Bayesian ماڈلنگ میں PhD حاصل کی۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.عیسیٰ جمیل میٹا میں ایک پارٹنر انجینئر RL، جنریٹو AI ہے۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ڈاکٹر کائل الریچ Amazon SageMaker جمپ سٹارٹ ٹیم کے ساتھ ایک اپلائیڈ سائنٹسٹ ہے۔ اس کی تحقیقی دلچسپیوں میں توسیع پذیر مشین لرننگ الگورتھم، کمپیوٹر ویژن، ٹائم سیریز، بایسیئن نان پیرامیٹرکس، اور گاوسی عمل شامل ہیں۔ اس کی پی ایچ ڈی ڈیوک یونیورسٹی سے ہے اور اس نے نیور آئی پی ایس، سیل اور نیوران میں مقالے شائع کیے ہیں۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ڈاکٹر آشیش کھیتان Amazon SageMaker JumpStart کے ساتھ ایک سینئر اپلائیڈ سائنٹسٹ ہے اور مشین لرننگ الگورتھم تیار کرنے میں مدد کرتا ہے۔ انہوں نے یونیورسٹی آف الینوائے اربانا-چمپین سے پی ایچ ڈی کی۔ وہ مشین لرننگ اور شماریاتی اندازہ میں ایک فعال محقق ہے، اور اس نے NeurIPS، ICML، ICLR، JMLR، ACL، اور EMNLP کانفرنسوں میں بہت سے مقالے شائع کیے ہیں۔

Code Llama code generation models from Meta are now available via Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ویویک سنگھ سیج میکر جمپ اسٹارٹ کے ساتھ پروڈکٹ مینیجر ہے۔ وہ صارفین کو جنریٹو AI ایپلی کیشنز بنانے کے لیے اپنے ایم ایل سفر کو آسان بنانے اور تیز کرنے کے لیے SageMaker JumpStart کو آن بورڈ کرنے کے قابل بنانے پر توجہ مرکوز کرتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ