Amazon SageMaker JumpStart | کا استعمال کرتے ہوئے LLMs کے ساتھ تعامل کرنے کے لیے ایک ویب UI بنائیں ایمیزون ویب سروسز

Amazon SageMaker JumpStart | کا استعمال کرتے ہوئے LLMs کے ساتھ تعامل کرنے کے لیے ایک ویب UI بنائیں ایمیزون ویب سروسز

ChatGPT کے آغاز اور جنریٹو AI کی مقبولیت میں اضافے نے ان صارفین کے تصور کو اپنی گرفت میں لے لیا ہے جو اس بات کے بارے میں متجسس ہیں کہ وہ اس ٹیکنالوجی کو AWS پر نئی مصنوعات اور خدمات بنانے کے لیے کس طرح استعمال کر سکتے ہیں، جیسا کہ انٹرپرائز چیٹ بوٹس، جو زیادہ بات چیت کرتے ہیں۔ یہ پوسٹ آپ کو دکھاتی ہے کہ آپ کس طرح ایک ویب UI بنا سکتے ہیں، جسے ہم چیٹ اسٹوڈیو کہتے ہیں، گفتگو شروع کرنے اور اس میں دستیاب فاؤنڈیشن ماڈلز کے ساتھ بات چیت کرنے کے لیے ایمیزون سیج میکر جمپ اسٹارٹ جیسے Llama 2، Stable Diffusion، اور دیگر ماڈلز دستیاب ہیں۔ ایمیزون سیج میکر. اس حل کو تعینات کرنے کے بعد، صارفین تیزی سے شروع کر سکتے ہیں اور ایک ویب انٹرفیس کے باوجود بات چیت کے AI میں متعدد فاؤنڈیشن ماڈلز کی صلاحیتوں کا تجربہ کر سکتے ہیں۔

اگر صارف میڈیا کو ظاہر کرنے کی درخواست کرتا ہے تو چیٹ اسٹوڈیو متعلقہ امیجز اور ویڈیوز کا کولیج واپس کرنے کے لیے اسٹیبل ڈفیوژن ماڈل اینڈ پوائنٹ کو بھی اختیار کر سکتا ہے۔ یہ خصوصیت میڈیا کے استعمال کے ساتھ صارف کے تجربے کو بڑھانے میں مدد کر سکتی ہے جیسا کہ جواب میں اثاثوں کے ساتھ۔ یہ صرف ایک مثال ہے کہ آپ اپنے اہداف کو پورا کرنے کے لیے اضافی انضمام کے ساتھ چیٹ اسٹوڈیو کو کس طرح بہتر بنا سکتے ہیں۔

مندرجہ ذیل اسکرین شاٹس اس بات کی مثالیں دکھاتے ہیں کہ صارف کا سوال اور جواب کیسا لگتا ہے۔

چیٹ اسٹوڈیو استفسار انٹرفیس

چیٹ اسٹوڈیو رسپانس انٹرفیس

بڑے زبان کے ماڈل

جنریٹو AI چیٹ بوٹس جیسے ChatGPT بڑے لینگویج ماڈلز (LLMs) کے ذریعے تقویت یافتہ ہیں، جو کہ ایک گہری سیکھنے والے نیورل نیٹ ورک پر مبنی ہیں جسے بغیر لیبل والے متن کی بڑی مقدار پر تربیت دی جا سکتی ہے۔ LLMs کا استعمال ایک بہتر بات چیت کے تجربے کی اجازت دیتا ہے جو حقیقی انسانوں کے ساتھ تعاملات کے قریب سے ملتا ہے، کنکشن کے احساس کو فروغ دیتا ہے اور صارف کی اطمینان کو بہتر بناتا ہے۔

سیج میکر فاؤنڈیشن ماڈل

2021 میں، سٹینفورڈ انسٹی ٹیوٹ فار ہیومن سینٹرڈ آرٹیفیشل انٹیلی جنس نے کچھ LLMs کو قرار دیا بنیاد ماڈل. فاؤنڈیشن ماڈلز کو عام ڈیٹا کے ایک بڑے اور وسیع سیٹ پر پہلے سے تربیت دی جاتی ہے اور ان کا مقصد ڈیجیٹل آرٹ تیار کرنے سے لے کر کثیر لسانی متن کی درجہ بندی تک وسیع پیمانے پر استعمال کے معاملات میں مزید اصلاح کی بنیاد کے طور پر کام کرنا ہے۔ یہ فاؤنڈیشن ماڈل صارفین میں مقبول ہیں کیونکہ نئے ماڈل کو شروع سے تربیت دینے میں وقت لگتا ہے اور یہ مہنگا بھی ہو سکتا ہے۔ سیج میکر جمپ سٹارٹ تیسرے فریق کے اوپن سورس اور ملکیتی فراہم کنندگان سے رکھے گئے سینکڑوں فاؤنڈیشن ماڈلز تک رسائی فراہم کرتا ہے۔

حل جائزہ

یہ پوسٹ سیج میکر کے ذریعے پہلے سے تربیت یافتہ اور کسٹم LLMs کو تعینات کرنے اور تعینات کردہ ماڈلز کے ساتھ انٹرفیس کرنے کے لیے ایک ویب UI بنانے کے لیے کم کوڈ والے ورک فلو سے گزرتی ہے۔ ہم مندرجہ ذیل اقدامات کا احاطہ کرتے ہیں:

  1. سیج میکر فاؤنڈیشن ماڈلز کو تعینات کریں۔
  2. تعینات او ڈبلیو ایس لامبڈا۔ اور AWS شناخت اور رسائی کا انتظام (IAM) کا استعمال کرتے ہوئے اجازت AWS کلاؤڈ فارمیشن.
  3. یوزر انٹرفیس کو ترتیب دیں اور چلائیں۔
  4. اختیاری طور پر، دیگر SageMaker فاؤنڈیشن ماڈل شامل کریں۔ یہ قدم اضافی فاؤنڈیشن ماڈلز کے ساتھ بات چیت کرنے کے لیے چیٹ اسٹوڈیو کی صلاحیت کو بڑھاتا ہے۔
  5. اختیاری طور پر، استعمال کرتے ہوئے ایپلیکیشن کو تعینات کریں۔ AWS بڑھانا. یہ مرحلہ چیٹ اسٹوڈیو کو ویب پر تعینات کرتا ہے۔

حل کے فن تعمیر کا جائزہ لینے کے لیے درج ذیل خاکہ کو دیکھیں۔

چیٹ اسٹوڈیو حل آرکیٹیکچر

شرائط

حل کے ذریعے چلنے کے لیے، آپ کو درج ذیل شرائط کا ہونا ضروری ہے:

  • An AWS اکاؤنٹ کافی IAM صارف مراعات کے ساتھ۔
  • npm آپ کے مقامی ماحول میں نصب۔ انسٹال کرنے کے طریقے سے متعلق ہدایات کے لیے npm، کا حوالہ دیتے ہیں Node.js اور npm کو ڈاؤن لوڈ اور انسٹال کرنا.
  • متعلقہ SageMaker اینڈ پوائنٹس کے لیے 1 کا سروس کوٹہ۔ Llama 2 13b Chat کے لیے، ہم ایک ml.g5.48xlarge مثال استعمال کرتے ہیں اور Stable Diffusion 2.1 کے لیے، ہم ایک ml.p3.2xlarge مثال استعمال کرتے ہیں۔

سروس کوٹہ میں اضافے کی درخواست کرنے کے لیے، پر AWS سروس کوٹاس کنسول، پر جائیں AWS خدمات, سیج میکر۔، اور سروس کوٹہ کے لیے درخواست کریں کہ اختتامی نقطہ کے استعمال کے لیے ml.g1xlarge اور اختتامی نقطہ کے استعمال کے لیے ml.p5.48xlarge کے لیے 3.2 کی قدر بڑھا دیں۔

سروس کوٹہ کی درخواست کو منظور ہونے میں چند گھنٹے لگ سکتے ہیں، مثال کی قسم کی دستیابی پر منحصر ہے۔

سیج میکر فاؤنڈیشن ماڈلز کو تعینات کریں۔

SageMaker ایک مکمل طور پر منظم مشین لرننگ (ML) سروس ہے جو ڈیولپرز کے لیے آسانی کے ساتھ ML ماڈلز کو تیزی سے بنانے اور تربیت دینے کے لیے ہے۔ Llama 2 13b Chat اور Stable Diffusion 2.1 فاؤنڈیشن ماڈل استعمال کرنے کے لیے درج ذیل مراحل کو مکمل کریں۔ ایمیزون سیج میکر اسٹوڈیو:

  1. سیج میکر ڈومین بنائیں۔ ہدایات کے لیے، رجوع کریں۔ فوری سیٹ اپ کا استعمال کرتے ہوئے ایمیزون سیج میکر ڈومین پر آن بورڈ.

ایک ڈومین تمام اسٹوریج کو ترتیب دیتا ہے اور آپ کو سیج میکر تک رسائی کے لیے صارفین کو شامل کرنے کی اجازت دیتا ہے۔

  1. سیج میکر کنسول پر، منتخب کریں۔ سٹوڈیو نیویگیشن پین میں، پھر منتخب کریں۔ سٹوڈیو کھولیں۔.
  2. اسٹوڈیو شروع کرنے پر، نیچے سیج میکر جمپ اسٹارٹ نیویگیشن پین میں، منتخب کریں۔ ماڈل، نوٹ بک، حل.
    سیج میکر جمپ اسٹارٹ کنسول
  3. سرچ بار میں، Llama 2 13b Chat تلاش کریں۔
  4. کے تحت تعیناتی کی ترتیب، کے لئے سیج میکر ہوسٹنگ مثالمنتخب کریں ml.g5.48xlarge اور کے لئے اختتامی نقطہ کا نام، داخل کریں meta-textgeneration-llama-2-13b-f.
  5. میں سے انتخاب کریں تعینات کریں۔

سیج میکر جمپ سٹارٹ تعیناتی کنفیگریشن

تعیناتی کامیاب ہونے کے بعد، آپ کو دیکھنے کے قابل ہونا چاہیے۔ In Service حیثیت.

لاما ماڈل کی حیثیت

  1. پر ماڈل، نوٹ بک، حل صفحہ، مستحکم بازی 2.1 کے لیے تلاش کریں۔
  2. کے تحت تعیناتی کی ترتیب، کے لئے سیج میکر ہوسٹنگ مثالمنتخب کریں ml.p3.2xlarge اور کے لئے اختتامی نقطہ کا نام، داخل کریں jumpstart-dft-stable-diffusion-v2-1-base.
  3. میں سے انتخاب کریں تعینات.

سیج میکر جمپ سٹارٹ تعیناتی کنفیگریشن

تعیناتی کامیاب ہونے کے بعد، آپ کو دیکھنے کے قابل ہونا چاہیے۔ In Service حیثیت.

مستحکم بازی ماڈل کی حیثیت

AWS CloudFormation کا استعمال کرتے ہوئے Lambda اور IAM کی اجازتیں متعین کریں۔

یہ سیکشن بتاتا ہے کہ آپ کس طرح ایک CloudFormation اسٹیک لانچ کر سکتے ہیں جو ایک Lambda فنکشن کو تعینات کرتا ہے جو آپ کی صارف کی درخواست پر کارروائی کرتا ہے اور SageMaker اینڈ پوائنٹ کو کال کرتا ہے جسے آپ نے تعینات کیا ہے، اور تمام ضروری IAM اجازتوں کو تعینات کرتا ہے۔ درج ذیل مراحل کو مکمل کریں:

  1. پر تشریف لے جائیں GitHub ذخیرہ اور CloudFormation ٹیمپلیٹ ڈاؤن لوڈ کریں (lambda.cfn.yaml) آپ کی مقامی مشین پر۔
  2. CloudFormation کنسول پر، منتخب کریں۔ اسٹیک بنائیں ڈراپ ڈاؤن مینو اور منتخب کریں۔ نئے وسائل کے ساتھ (معیاری).
  3. پر ٹیمپلیٹ کی وضاحت کریں۔ صفحہ ، منتخب کریں ٹیمپلیٹ فائل اپ لوڈ کریں۔ اور فائل منتخب کریں.
  4. منتخب کیجئیے lambda.cfn.yaml فائل جو آپ نے ڈاؤن لوڈ کی ہے، پھر منتخب کریں۔ اگلے.
  5. پر اسٹیک کی تفصیلات بتائیں صفحہ، اسٹیک کا نام اور API کلید درج کریں جو آپ نے شرائط میں حاصل کی ہے، پھر منتخب کریں۔ اگلے.
  6. پر اسٹیک کے اختیارات کو ترتیب دیں۔ صفحہ، منتخب کریں اگلے.
  7. تبدیلیوں کا جائزہ لیں اور تسلیم کریں اور منتخب کریں۔ جمع کرائیں.

ویب UI سیٹ اپ کریں۔

یہ سیکشن ویب UI کو چلانے کے اقدامات کی وضاحت کرتا ہے (کا استعمال کرتے ہوئے تخلیق کیا گیا ہے۔ کلاؤڈ اسکیپ ڈیزائن سسٹم) آپ کی مقامی مشین پر:

  1. IAM کنسول پر، صارف پر جائیں۔ functionUrl.
  2. پر حفاظتی اسناد ٹیب، منتخب کریں رسائی کلید بنائیں.
  3. پر کلیدی بہترین طریقوں اور متبادل تک رسائی حاصل کریں۔ صفحہ ، منتخب کریں کمانڈ لائن انٹرفیس (سی ایل آئی) اور منتخب کریں اگلے.
  4. پر تفصیل کا ٹیگ سیٹ کریں۔ صفحہ، منتخب کریں رسائی کلید بنائیں.
  5. رسائی کلید اور خفیہ رسائی کلید کو کاپی کریں۔
  6. میں سے انتخاب کریں کیا.
  7. پر تشریف لے جائیں GitHub ذخیرہ اور ڈاؤن لوڈ کریں react-llm-chat-studio کوڈ
  8. اپنے پسندیدہ IDE میں فولڈر لانچ کریں اور ٹرمینل کھولیں۔
  9. پر تشریف لے جائیں src/configs/aws.json اور آپ کو حاصل کردہ رسائی کلید اور خفیہ رسائی کلید داخل کریں۔
  10. ٹرمینل میں درج ذیل کمانڈز درج کریں:
    npm install npm start

  11. اوپن http://localhost:3000 اپنے براؤزر میں اور اپنے ماڈلز کے ساتھ بات چیت شروع کریں!

چیٹ اسٹوڈیو استعمال کرنے کے لیے، ڈراپ ڈاؤن مینو پر ایک بنیادی ماڈل منتخب کریں اور ٹیکسٹ باکس میں اپنا سوال درج کریں۔ جواب کے ساتھ AI سے تیار کردہ تصاویر حاصل کرنے کے لیے، اپنے استفسار کے آخر میں "تصاویر کے ساتھ" کا جملہ شامل کریں۔

دیگر SageMaker فاؤنڈیشن ماڈل شامل کریں۔

اضافی SageMaker فاؤنڈیشن ماڈلز کو شامل کرنے کے لیے آپ اس حل کی صلاحیت کو مزید بڑھا سکتے ہیں۔ چونکہ ہر ماڈل اپنے SageMaker اینڈ پوائنٹ کو استعمال کرتے وقت مختلف ان پٹ اور آؤٹ پٹ فارمیٹس کی توقع کرتا ہے، اس لیے آپ کو ماڈل کے ساتھ انٹرفیس کرنے کے لیے callSageMakerEndpoints Lambda فنکشن میں کچھ ٹرانسفارمیشن کوڈ لکھنے کی ضرورت ہوگی۔

یہ سیکشن آپ کی پسند کے ایک اضافی ماڈل کو نافذ کرنے کے لیے درکار عمومی اقدامات اور کوڈ کی تبدیلیوں کی وضاحت کرتا ہے۔ نوٹ کریں کہ مراحل 6-8 کے لیے ازگر کی زبان کا بنیادی علم درکار ہے۔

  1. سیج میکر اسٹوڈیو میں، اپنی پسند کا سیج میکر فاؤنڈیشن ماڈل لگائیں۔
  2. میں سے انتخاب کریں سیج میکر جمپ اسٹارٹ اور جمپ اسٹارٹ اثاثے شروع کریں۔.
  3. اپنے نئے تعینات کردہ ماڈل اینڈ پوائنٹ کا انتخاب کریں اور منتخب کریں۔ نوٹ بک کھولیں۔.
  4. نوٹ بک کنسول پر، پے لوڈ پیرامیٹرز تلاش کریں۔

یہ وہ فیلڈز ہیں جن کی توقع نیا ماڈل اپنے SageMaker اینڈ پوائنٹ کو استعمال کرتے وقت کرتا ہے۔ مندرجہ ذیل اسکرین شاٹ ایک مثال دکھاتا ہے۔

سیج میکر اینڈ پوائنٹ کنفیگریشن

  1. لیمبڈا کنسول پر، نیویگیٹ کریں۔ callSageMakerEndpoints.
  2. اپنے نئے ماڈل کے لیے حسب ضرورت ان پٹ ہینڈلر شامل کریں۔

مندرجہ ذیل اسکرین شاٹ میں، ہم نے Falcon 40B Instruct BF16 اور GPT NeoXT Chat Base 20B FP16 کے لیے ان پٹ کو تبدیل کر دیا۔ آپ اپنا حسب ضرورت پیرامیٹر لاجک داخل کر سکتے ہیں جیسا کہ آپ نے کاپی کردہ پے لوڈ پیرامیٹرز کے حوالے سے ان پٹ ٹرانسفارمیشن لاجک کو شامل کرنے کے لیے اشارہ کیا ہے۔

لیمبڈا کوڈ کا ٹکڑا

  1. نوٹ بک کنسول پر واپس جائیں اور تلاش کریں۔ query_endpoint.

یہ فنکشن آپ کو اندازہ دیتا ہے کہ حتمی متن کے جواب کو نکالنے کے لیے ماڈلز کے آؤٹ پٹ کو کیسے تبدیل کیا جائے۔

سیج میکر اینڈ پوائنٹ کنفیگریشن

  1. میں کوڈ کے حوالے سے query_endpointاپنے نئے ماڈل کے لیے ایک حسب ضرورت آؤٹ پٹ ہینڈلر شامل کریں۔
    لیمبڈا کوڈ
  2. میں سے انتخاب کریں تعینات کریں۔
  3. اپنا IDE کھولیں، لانچ کریں۔ react-llm-chat-studio کوڈ، اور تشریف لے جائیں۔ src/configs/models.json.
  4. اپنے ماڈل کا نام اور ماڈل اینڈ پوائنٹ شامل کریں، اور نیچے مرحلہ 4 سے پے لوڈ پیرامیٹرز درج کریں۔ payload مندرجہ ذیل فارمیٹ کا استعمال کرتے ہوئے:
    "add_model_name": { "endpoint_name": "add_model_enpoint", "payload": { "add_payload_paramters_here"
    }
    },

  5. اپنے نئے ماڈل کے ساتھ تعامل شروع کرنے کے لیے اپنے براؤزر کو ریفریش کریں!

ایمپلیفائی کا استعمال کرتے ہوئے ایپلیکیشن کو تعینات کریں۔

Amplify ایک مکمل حل ہے جو آپ کو اپنی درخواست کو تیزی سے اور مؤثر طریقے سے تعینات کرنے کی اجازت دیتا ہے۔ یہ سیکشن چیٹ اسٹوڈیو کو ایک پر تعینات کرنے کے اقدامات کی وضاحت کرتا ہے۔ ایمیزون CloudFront اگر آپ اپنی ایپلیکیشن کو دوسرے صارفین کے ساتھ شیئر کرنا چاہتے ہیں تو Amplify کا استعمال کرتے ہوئے تقسیم۔

  1. پر تشریف لے جائیں react-llm-chat-studio کوڈ فولڈر جو آپ نے پہلے بنایا تھا۔
  2. ٹرمینل میں درج ذیل کمانڈز درج کریں اور سیٹ اپ کی ہدایات پر عمل کریں:
    npm install -g @aws-amplify/cli amplify configure

  3. درج ذیل کمانڈ کا استعمال کرکے ایک نیا ایمپلیفائی پروجیکٹ شروع کریں۔ پروجیکٹ کا نام فراہم کریں، ڈیفالٹ کنفیگریشنز کو قبول کریں، اور منتخب کریں۔ AWS رسائی کی چابیاں جب تصدیق کا طریقہ منتخب کرنے کا اشارہ کیا جائے۔
    amplify init

  4. مندرجہ ذیل کمانڈ کا استعمال کرکے Amplify پروجیکٹ کی میزبانی کریں۔ منتخب کریں۔ ایمیزون کلاؤڈ فرنٹ اور S3 جب پلگ ان موڈ کو منتخب کرنے کا اشارہ کیا جائے۔
    amplify hosting add

  5. آخر میں، مندرجہ ذیل کمانڈ کے ساتھ پروجیکٹ کی تعمیر اور تعیناتی کریں:
    amplify publish

  6. تعیناتی کامیاب ہونے کے بعد، اپنے براؤزر میں فراہم کردہ URL کو کھولیں اور اپنے ماڈلز کے ساتھ بات چیت شروع کریں!

صاف کرو

مستقبل کے چارجز سے بچنے کے لیے، درج ذیل اقدامات مکمل کریں:

  1. CloudFormation اسٹیک کو حذف کریں۔ ہدایات کے لیے، رجوع کریں۔ AWS CloudFormation کنسول پر ایک اسٹیک کو حذف کرنا.
  2. سیج میکر جمپ اسٹارٹ اینڈ پوائنٹ کو حذف کریں۔ ہدایات کے لیے، رجوع کریں۔ اختتامی مقامات اور وسائل کو حذف کریں۔.
  3. سیج میکر ڈومین کو حذف کریں۔ ہدایات کے لیے، رجوع کریں۔ ایمیزون سیج میکر ڈومین کو حذف کریں۔.

نتیجہ

اس پوسٹ میں، ہم نے بتایا کہ AWS پر تعینات LLMs کے ساتھ انٹرفیس کرنے کے لیے ویب UI کیسے بنایا جائے۔

اس حل کے ساتھ، آپ اپنے LLM کے ساتھ بات چیت کر سکتے ہیں اور LLM سوالات کو جانچنے یا پوچھنے کے لیے صارف دوست انداز میں گفتگو کر سکتے ہیں، اور ضرورت پڑنے پر تصاویر اور ویڈیوز کا کولیج حاصل کر سکتے ہیں۔

آپ اس حل کو مختلف طریقوں سے بڑھا سکتے ہیں، جیسے اضافی فاؤنڈیشن ماڈلز کو مربوط کرنا، ایمیزون کیندر کے ساتھ ضم کریں۔ انٹرپرائز مواد کو سمجھنے کے لیے ML سے چلنے والی ذہین تلاش کو فعال کرنے کے لیے، اور مزید!

ہم آپ کو تجربہ کرنے کی دعوت دیتے ہیں۔ مختلف پہلے سے تربیت یافتہ LLMs AWS پر دستیاب ہیں۔، یا SageMaker میں اپنے LLMs کے اوپر بنائیں یا یہاں تک کہ بنائیں۔ ہمیں تبصرے میں اپنے سوالات اور نتائج بتائیں، اور مزہ کریں!


مصنفین کے بارے میں

Create a web UI to interact with LLMs using Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.جیرٹ ییو شان وی AWS پروفیشنل سروسز میں ایک ایسوسی ایٹ کلاؤڈ آرکیٹیکٹ ہے جو پورے ASEAN میں پبلک سیکٹر کا احاطہ کرتی ہے اور صارفین کو کلاؤڈ میں جدید بنانے اور ہجرت کرنے میں مدد کرنے کا وکیل ہے۔ اس نے پانچ AWS سرٹیفیکیشن حاصل کیے ہیں، اور اس نے AI پر 8ویں بین الاقوامی کانفرنس میں گریڈینٹ بوسٹنگ مشین کے ملبوسات پر ایک تحقیقی مقالہ بھی شائع کیا ہے۔ اپنے فارغ وقت میں، جیریٹ AWS میں تخلیقی AI منظر پر توجہ مرکوز کرتا ہے اور اس میں تعاون کرتا ہے۔

Create a web UI to interact with LLMs using Amazon SageMaker JumpStart | Amazon Web Services PlatoBlockchain Data Intelligence. Vertical Search. Ai.ٹامی لم لی زین AWS میں ایک ایسوسی ایٹ کلاؤڈ آرکیٹیکٹ ہے۔ وہ صارفین کو ان کے کلاؤڈ اپنانے کے سفر میں مطلوبہ نتائج فراہم کرنے میں مدد کرنے کے لیے ٹیکنالوجی کا استعمال کرتی ہے اور AI/ML کے بارے میں پرجوش ہے۔ کام سے باہر اسے سفر کرنا، پیدل سفر کرنا اور خاندان اور دوستوں کے ساتھ وقت گزارنا پسند ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ