اس پوسٹ میں، ہم آپ کو دکھاتے ہیں کہ ٹیکسٹ سمریائزیشن کے لیے استعمال ہونے والے سب سے زیادہ ڈاؤن لوڈ کیے گئے Hugging Face کے پہلے سے تربیت یافتہ ماڈلز میں سے ایک کو کیسے نافذ کیا جائے، DistilBART-CNN-12-6، استعمال کرتے ہوئے ایک Jupyter نوٹ بک کے اندر ایمیزون سیج میکر اور سیج میکر ہگنگ فیس انفرنس ٹول کٹ. اس پوسٹ میں دکھائے گئے اقدامات کی بنیاد پر، آپ سے متن کا خلاصہ کرنے کی کوشش کر سکتے ہیں۔ WikiText-2 ڈیٹاسیٹ fast.ai کے زیر انتظامپر دستیاب ہے۔ AWS پر اوپن ڈیٹا کی رجسٹری.
عالمی ڈیٹا کا حجم زیٹا بائٹ پیمانے پر بڑھ رہا ہے کیونکہ کمپنیاں اور صارفین ڈیجیٹل مصنوعات اور آن لائن خدمات کے اپنے استعمال کو بڑھا رہے ہیں۔ اس بڑھتے ہوئے ڈیٹا کو بہتر طور پر سمجھنے کے لیے، ٹیکسٹ تجزیہ کے لیے مشین لرننگ (ML) نیچرل لینگویج پروسیسنگ (NLP) تکنیکیں استعمال کے معاملات کو حل کرنے کے لیے تیار ہوئی ہیں جن میں متن کا خلاصہ، ہستی کی شناخت، درجہ بندی، ترجمہ، اور بہت کچھ شامل ہے۔ AWS پہلے سے تربیت یافتہ پیش کرتا ہے۔ AWS AI خدمات جسے API کالز کا استعمال کرتے ہوئے ایپلی کیشنز میں ضم کیا جا سکتا ہے اور اس کے لیے ML تجربے کی ضرورت نہیں ہے۔ مثال کے طور پر، ایمیزون کی تعریف متن سے بصیرت اکٹھا کرنے کے لیے NLP کام جیسے حسب ضرورت ہستی کی شناخت، جذبات کا تجزیہ، کلیدی فقرہ نکالنا، موضوع کی ماڈلنگ، اور بہت کچھ انجام دے سکتا ہے۔ یہ کارکردگی دکھا سکتا ہے۔ مختلف زبانوں پر متن کا تجزیہ اس کی مختلف خصوصیات کے لیے۔
متن کا خلاصہ ٹیکسٹ ڈیٹا کی بڑی مقدار کو سمجھنے میں ایک مددگار تکنیک ہے کیونکہ یہ ماخذ دستاویزات سے سیاق و سباق کے لحاظ سے معنی خیز معلومات کا ایک ذیلی سیٹ بناتا ہے۔ آپ اس NLP تکنیک کو طویل شکل والے ٹیکسٹ دستاویزات اور مضامین پر لاگو کر سکتے ہیں، جس سے تیزی سے کھپت اور زیادہ موثر دستاویز کی اشاریہ سازی ممکن ہو سکتی ہے، مثال کے طور پر میٹنگز کے کال نوٹس کا خلاصہ کرنا۔
گلے لگانے والا چہرہ NLP کے لیے ایک مقبول اوپن سورس لائبریری ہے، جس میں 49,000 سے زیادہ زبانوں میں 185 سے زیادہ پہلے سے تربیت یافتہ ماڈلز مختلف فریم ورکس کے لیے سپورٹ کے ساتھ ہیں۔ AWS اور گلے لگانے والا چہرہ ہے۔ شراکت داری جو PyTorch یا TensorFlow میں تربیت اور اندازہ لگانے کے لیے AWS ڈیپ لرننگ کنٹینرز (DLCs) کے سیٹ کے ساتھ SageMaker کے ذریعے بغیر کسی رکاوٹ کے انضمام کی اجازت دیتا ہے، اور SageMaker Python SDK کے لیے چہرے کے تخمینے اور پیشن گوئی کرنے والوں کو گلے لگاتا ہے۔ SageMaker میں یہ صلاحیتیں ڈیولپرز اور ڈیٹا سائنسدانوں کو AWS پر NLP کے ساتھ زیادہ آسانی سے شروع کرنے میں مدد کرتی ہیں۔ ڈیپ لرننگ فریم ورک جیسے کہ پائی ٹارچ میں ٹرانسفارمرز کے ساتھ متن پر کارروائی کرنا ڈیٹا سائنسدانوں کے لیے عام طور پر ایک پیچیدہ اور وقت طلب کام ہے، جو NLP پروجیکٹس تیار کرتے وقت اکثر مایوسی اور کارکردگی کی کمی کا باعث بنتا ہے۔ سیج میکر جیسے کلاؤڈ میں ایم ایل سروسز کی طاقت کے ساتھ مل کر ہیگنگ فیس جیسی AI کمیونٹیز کا عروج، ٹیکسٹ پروسیسنگ کے ان کاموں کی ترقی کو تیز اور آسان بناتا ہے۔ SageMaker آپ کو Hugging Face ماڈل بنانے، تربیت دینے، تعینات کرنے اور چلانے میں مدد کرتا ہے۔
متن کا خلاصہ جائزہ
آپ کسی دستاویز کے اندر کلیدی جملوں کی شناخت کے لیے متن کا خلاصہ لگا سکتے ہیں یا متعدد دستاویزات میں کلیدی جملوں کی شناخت کر سکتے ہیں۔ متن کا خلاصہ دو قسم کے خلاصے پیدا کر سکتا ہے: استخراجی اور تجریدی۔ استخراجی خلاصوں میں کوئی مشین سے تیار کردہ متن نہیں ہوتا ہے اور یہ ان پٹ دستاویز سے منتخب کردہ اہم جملوں کا مجموعہ ہے۔ خلاصہ خلاصہ متن کے خلاصہ ماڈل کے ذریعہ تخلیق کردہ نئے انسانی پڑھنے کے قابل جملے اور جملے پر مشتمل ہے۔ متن کا خلاصہ کرنے کے زیادہ تر نظام استخراجی خلاصہ پر مبنی ہیں کیونکہ درست تجریدی متن کا خلاصہ حاصل کرنا مشکل ہے۔
ہگنگ فیس میں 400 سے زیادہ پہلے سے تربیت یافتہ جدید ترین ہیں۔ متن کے خلاصے کے ماڈل دستیاب ہیں۔NLP تکنیکوں کے مختلف امتزاج کو نافذ کرنا۔ ان ماڈلز کو مختلف ڈیٹا سیٹس پر تربیت دی جاتی ہے، جو ٹیکنالوجی کمپنیوں اور Hugging Face کمیونٹی کے اراکین کے ذریعے اپ لوڈ اور دیکھ بھال کی جاتی ہے۔ آپ سب سے زیادہ ڈاؤن لوڈ کردہ یا سب سے زیادہ پسند کیے گئے ماڈلز کو فلٹر کر سکتے ہیں، اور استعمال کرتے وقت انہیں براہ راست لوڈ کر سکتے ہیں۔ خلاصہ پائپ لائن ہگنگ فیس ٹرانسفارمر API. ہگنگ فیس ٹرانسفارمر NLP کے نفاذ کے عمل کو آسان بناتا ہے تاکہ اعلی کارکردگی والے NLP ماڈلز کو متنی خلاصے فراہم کرنے کے لیے ٹھیک بنایا جا سکے، بغیر کسی وسیع ML آپریشن کے علم کی ضرورت ہو۔
AWS پر چہرے کے متن کے خلاصے کے ماڈل کو گلے لگانا
SageMaker کاروباری تجزیہ کاروں، ڈیٹا سائنسدانوں، اور MLOps انجینئرز کو AWS پر ML ورک بوجھ کو ڈیزائن اور چلانے کے لیے ٹولز کا انتخاب پیش کرتا ہے۔ یہ ٹولز آپ کو آپ کے بہترین نتائج حاصل کرنے کے لیے ایم ایل ماڈلز کا تیز تر نفاذ اور جانچ فراہم کرتے ہیں۔
سے سیج میکر ہگنگ فیس انفرنس ٹول کٹ، ایک اوپن سورس لائبریری، ہم Jupyter نوٹ بک کا استعمال کرتے ہوئے Hugging Face ٹیکسٹ سمریائزیشن ماڈلز کو لاگو کرنے اور میزبانی کرنے کے تین مختلف طریقوں کا خاکہ پیش کرتے ہیں:
- گلے لگانا چہرے کا خلاصہ پائپ لائن - بنائیے ایک گلے لگانا چہرے کا خلاصہ پائپ لائن کا استعمال کرتے ہوئے "
summarization
آپ کی Jupyter نوٹ بک میں اندازہ لگانے کے لیے ڈیفالٹ ٹیکسٹ سمریائزیشن ماڈل استعمال کرنے کے لیے ٹاسک شناخت کنندہ۔ یہ پائپ لائنز پیچیدہ کوڈ کا خلاصہ کرتی ہیں، نوآموز ML پریکٹیشنرز کو ایک سادہ API پیش کرتے ہیں تاکہ بغیر کسی نتیجہ کے اختتامی نقطہ کو ترتیب دیے متن کے خلاصے کو تیزی سے نافذ کیا جا سکے۔ پائپ لائن ایم ایل پریکٹیشنر کو ایک مخصوص پہلے سے تربیت یافتہ ماڈل اور اس سے وابستہ ٹوکنائزر کو منتخب کرنے کی بھی اجازت دیتی ہے۔ ٹوکنائزرز ٹیکسٹ کو الفاظ یا ذیلی الفاظ میں تقسیم کر کے ماڈل کے لیے ایک ان پٹ کے طور پر تیار کرنے کے لیے تیار کرتے ہیں، جو پھر تلاش کی میز کے ذریعے IDs میں تبدیل ہو جاتے ہیں۔ سادگی کے لیے، پائپ لائنز کا استعمال کرتے وقت درج ذیل کوڈ کا ٹکڑا ڈیفالٹ کیس فراہم کرتا ہے۔ دی DistilBART-CNN-12-6 ماڈل Hugging Face پر سب سے زیادہ ڈاؤن لوڈ کردہ خلاصہ ماڈلز میں سے ایک ہے۔ خلاصہ پائپ لائن کے لیے پہلے سے طے شدہ ماڈل. آخری سطر پہلے سے تربیت یافتہ ماڈل کو فراہم کردہ دو دلائل کے پیش نظر پاس شدہ متن کا خلاصہ حاصل کرنے کے لیے کال کرتی ہے۔ - پہلے سے تربیت یافتہ ماڈل کے ساتھ سیج میکر اینڈ پوائنٹ - سے پہلے سے تربیت یافتہ ماڈل کے ساتھ سیج میکر اینڈ پوائنٹ بنائیں گلے لگانا چہرہ ماڈل ہب اور اسے ایک انفرنس اینڈ پوائنٹ پر تعینات کریں، جیسے کہ درج ذیل کوڈ کے ٹکڑوں میں ml.m5.xlarge مثال۔ یہ طریقہ تجربہ کار ایم ایل پریکٹیشنرز کو فوری طور پر مخصوص اوپن سورس ماڈلز کو منتخب کرنے، ان کو ٹھیک کرنے اور ماڈلز کو اعلی کارکردگی کا مظاہرہ کرنے والی مثالوں پر تعینات کرنے کی اجازت دیتا ہے۔
- ایک تربیت یافتہ ماڈل کے ساتھ سیج میکر اینڈ پوائنٹ - ایک سیج میکر ماڈل اینڈ پوائنٹ بنائیں جس میں ایک تربیت یافتہ ماڈل محفوظ ہے۔ ایمیزون سادہ اسٹوریج سروس (Amazon S3) بالٹی اور اسے ایک انفرنس اینڈ پوائنٹ پر تعینات کریں۔ یہ طریقہ تجربہ کار ML پریکٹیشنرز کو Amazon S3 پر ذخیرہ شدہ اپنے ماڈلز کو اعلی کارکردگی کا مظاہرہ کرنے والی مثالوں پر تیزی سے تعینات کرنے کی اجازت دیتا ہے۔ ماڈل خود ہیگنگ فیس سے ڈاؤن لوڈ کیا جاتا ہے اور کمپریس کیا جاتا ہے، اور پھر اسے ایمیزون S3 پر اپ لوڈ کیا جا سکتا ہے۔ یہ قدم درج ذیل کوڈ کے ٹکڑوں میں دکھایا گیا ہے:
AWS کے پاس آپ کے ML ورک بوجھ کو تعینات کرنے میں آپ کی مدد کے لیے کئی وسائل دستیاب ہیں۔ دی مشین لرننگ لینس کی AWS اچھی طرح سے تعمیر شدہ فریم ورک ML ورک بوجھ کے بہترین طریقوں کی سفارش کرتا ہے، بشمول وسائل کو بہتر بنانا اور لاگت کو کم کرنا۔ یہ تجویز کردہ ڈیزائن کے اصول اس بات کو یقینی بناتے ہیں کہ AWS پر اچھی طرح سے تعمیر شدہ ML ورک بوجھ کو پروڈکشن میں تعینات کیا جائے۔ Amazon SageMaker Inference Recommender آپ کو اپنے ایم ایل ماڈلز کو بہترین تخمینہ کارکردگی اور قیمت پر تعینات کرنے کے لیے صحیح مثال منتخب کرنے میں مدد کرتا ہے۔ Inference Recommender ماڈل کی تعیناتی کو تیز کرتا ہے اور لوڈ ٹیسٹنگ کو خودکار کرکے اور ML مثالوں میں ماڈل کی کارکردگی کو بہتر بنا کر مارکیٹ میں آنے کا وقت کم کرتا ہے۔
اگلے حصوں میں، ہم یہ ظاہر کرتے ہیں کہ S3 بالٹی سے ایک تربیت یافتہ ماڈل کو کیسے لوڈ کیا جائے اور اسے کسی مناسب اندازے کے مطابق کیسے لگایا جائے۔
شرائط
اس واک تھرو کے لیے، آپ کے پاس درج ذیل شرائط ہونی چاہئیں:
- An AWS اکاؤنٹ.
- اندر ایک Jupyter نوٹ بک ایمیزون سیج میکر اسٹوڈیو or SageMaker notebook instances. In this post, we use the “Python 3 (PyTorch 1.4 Python 3.6 CPU Optimized)” image with the provided code snippets, but you can use any other higher version PyTorch image from the available SageMaker kernels.
- A dataset in your S3 bucket, such as the WikiText-2 سے ڈیٹاسیٹ AWS پر اوپن ڈیٹا کی رجسٹری.
متن کا خلاصہ کرنے کے لیے Hugging Face ماڈل کو SageMaker پر لوڈ کریں۔
Hugging Face پہلے سے تربیت یافتہ ٹیکسٹ سمریائزیشن ماڈل ڈاؤن لوڈ کرنے کے لیے درج ذیل کوڈ کا استعمال کریں۔ DistilBART-CNN-12-6 اور اس کا ٹوکنائزر، اور انہیں مقامی طور پر سیج میکر میں اپنی Jupyter نوٹ بک ڈائرکٹری میں محفوظ کریں:
محفوظ کردہ ٹیکسٹ سمریائزیشن ماڈل اور اس کے ٹوکنائزر کو tar.gz فارمیٹ میں کمپریس کریں اور کمپریسڈ ماڈل آرٹفیکٹ کو S3 بالٹی میں اپ لوڈ کریں:
ایک منتخب کریں انفرنس ڈوکر کنٹینر کی تصویر متن کا خلاصہ کرنے کے لیے۔ لینکس OS، PyTorch فریم ورک، اور Hugging Face Transformer ورژن کی وضاحت کریں اور وضاحت کریں ایمیزون لچکدار کمپیوٹ کلاؤڈ (ایمیزون ای سی 2) کنٹینر چلانے کے لیے مثال کی قسم۔
ڈاکر کی تصویر میں دستیاب ہے۔ ایمیزون لچکدار کنٹینر رجسٹری اسی AWS اکاؤنٹ کا (Amazon ECR)، اور اس کنٹینر کی تصویر کا لنک URI کے بطور لوٹا دیا جاتا ہے۔
ٹیکسٹ سمریائزیشن ماڈل کی وضاحت کریں جو منتخب کنٹینر امیج پرفارمنگ انفرنس کے ذریعے تعینات کیا جائے گا۔ درج ذیل کوڈ کے ٹکڑوں میں، Amazon S3 پر اپ لوڈ کردہ کمپریسڈ ماڈل تعینات کیا گیا ہے:
نمونے کے ان پٹ پر تعینات ٹیکسٹ سمریائزیشن ماڈل کی جانچ کریں:
انفرنس ٹاسک کے لیے بہترین EC2 مثال کا اندازہ لگانے کے لیے Inference Recommender کا استعمال کریں۔
اگلا، JSON فارمیٹ میں ان پٹ ٹیکسٹ کے متعدد پے لوڈ نمونے بنائیں اور انہیں ایک ہی پے لوڈ فائل میں کمپریس کریں۔ یہ پے لوڈ کے نمونے Inference Recommender کے ذریعے مختلف EC2 مثال کی اقسام کے درمیان تخمینہ کارکردگی کا موازنہ کرنے کے لیے استعمال کیے جاتے ہیں۔ نمونہ پے لوڈز میں سے ہر ایک کو پہلے دکھائے گئے JSON فارمیٹ سے مماثل ہونا چاہیے۔ سے مثالیں حاصل کر سکتے ہیں۔ WikiText-2 ڈیٹاسیٹ fast.ai کے زیر انتظامپر دستیاب ہے۔ AWS پر اوپن ڈیٹا کی رجسٹری.
کمپریسڈ ٹیکسٹ سمریائزیشن ماڈل آرٹفیکٹ اور کمپریسڈ سیمپل پے لوڈ فائل کو S3 بالٹی میں اپ لوڈ کریں۔ ہم نے پہلے مرحلے میں ماڈل کو اپ لوڈ کیا، لیکن وضاحت کے لیے ہم اسے دوبارہ اپ لوڈ کرنے کے لیے کوڈ شامل کرتے ہیں:
سیج میکر پر دستیاب معیاری ایم ایل ماڈلز کی فہرست کا جائزہ لیں۔ عام ماڈل چڑیا گھر، جیسے NLP اور کمپیوٹر ویژن۔ متن کا خلاصہ کرنے کے لیے ایک NLP ماڈل منتخب کریں:
مندرجہ ذیل مثال کا استعمال کرتا ہے bert-base-cased
این ایل پی ماڈل۔ متن کا خلاصہ ماڈل میں رجسٹر کریں۔ سیج میکر ماڈل رجسٹری پچھلے مرحلے سے درست طریقے سے شناخت شدہ ڈومین، فریم ورک، اور کام کے ساتھ۔ اس مثال کے پیرامیٹرز درج ذیل کوڈ کے ٹکڑوں کے شروع میں دکھائے گئے ہیں۔
EC2 مثال کی اقسام کی رینج کو نوٹ کریں جس کا اندازہ Inference Recommender کے تحت کیا جانا ہے۔ SupportedRealtimeInferenceInstanceTypes
مندرجہ ذیل کوڈ میں. اس بات کو یقینی بنائیں کہ AWS اکاؤنٹ کے لیے سروس کی حدود انفرنس نوڈس کی اس قسم کی تعیناتی کی اجازت دیں۔
کا استعمال کرتے ہوئے ایک Inference Recommender ڈیفالٹ جاب بنائیں ModelPackageVersion
پچھلے مرحلے کے نتیجے میں۔ دی uuid
Python لائبریری کو کام کے لیے ایک منفرد نام بنانے کے لیے استعمال کیا جاتا ہے۔
آپ درج ذیل کوڈ کو چلا کر Inference Recommender جاب کی حیثیت حاصل کر سکتے ہیں۔
جب نوکری کی حیثیت ہے۔ COMPLETED
انفرنس لیٹنسی، رن ٹائم، اور EC2 مثال کی اقسام کے دیگر میٹرکس کا موازنہ کریں جس کا اندازہ Inference Recommender ڈیفالٹ جاب کے ذریعے کیا جاتا ہے۔ اپنے استعمال کے کیس کی ضروریات کی بنیاد پر مناسب نوڈ کی قسم منتخب کریں۔
نتیجہ
سیج میکر ہیگنگ فیس ماڈلز استعمال کرنے کے متعدد طریقے پیش کرتا ہے۔ مزید مثالوں کے لیے، چیک کریں۔ AWS نمونے GitHub. استعمال کے کیس کی پیچیدگی اور ماڈل کو ٹھیک کرنے کی ضرورت پر منحصر ہے، آپ ان ماڈلز کو استعمال کرنے کا بہترین طریقہ منتخب کر سکتے ہیں۔ ہیگنگ فیس پائپ لائنز تیزی سے تجربہ کرنے اور مناسب ماڈلز کو منتخب کرنے کے لیے ایک اچھا نقطہ آغاز ہو سکتی ہیں۔ جب آپ کو منتخب ماڈلز کو اپنی مرضی کے مطابق اور پیرامیٹرائز کرنے کی ضرورت ہو، تو آپ ماڈلز کو ڈاؤن لوڈ کر سکتے ہیں اور انہیں حسب ضرورت انفرنس اینڈ پوائنٹس پر تعینات کر سکتے ہیں۔ مخصوص استعمال کے کیس کے لیے ماڈل کو مزید ٹھیک کرنے کے لیے، آپ کو اسے ڈاؤن لوڈ کرنے کے بعد ماڈل کو تربیت دینے کی ضرورت ہوگی۔
عام طور پر NLP ماڈل، بشمول ٹیکسٹ سمریائزیشن ماڈلز، ڈیٹا سیٹ پر تربیت حاصل کرنے کے بعد بہتر کارکردگی کا مظاہرہ کرتے ہیں جو کہ استعمال کے معاملے کے لیے مخصوص ہے۔ SageMaker کے MLOPs اور ماڈل کی نگرانی کی خصوصیات اس بات کو یقینی بناتی ہیں کہ تعینات کردہ ماڈل توقعات کے مطابق کارکردگی کا مظاہرہ کرتا رہے۔ اس پوسٹ میں، ہم نے ٹیکسٹ سمریائزیشن ماڈل کو تعینات کرنے کے لیے بہترین موزوں مثال کی قسم کا اندازہ لگانے کے لیے Inference Recommender کا استعمال کیا۔ یہ سفارشات آپ کے ایم ایل کے استعمال کے کیس کے لیے کارکردگی اور لاگت کو بہتر بنا سکتی ہیں۔
مصنفین کے بارے میں
ڈاکٹر ندال البیروتی ایمیزون ویب سروسز میں ایک سینئر سولیوشن آرکیٹیکٹ ہے، جس میں مشین لرننگ سلوشنز کا شوق ہے۔ نیڈل کے پاس مختلف سطحوں اور عمودی سطحوں پر مختلف عالمی آئی ٹی کرداروں میں کام کرنے کا 25 سال سے زیادہ کا تجربہ ہے۔ Nidal بہت سے AWS صارفین کے لیے ایک بھروسہ مند مشیر کے طور پر کام کرتا ہے تاکہ وہ اپنے کلاؤڈ گود لینے کے سفر کی مدد اور اس میں تیزی لا سکے۔
ڈیرن کو لندن میں مقیم ایک حل آرکیٹیکٹ ہے۔ وہ برطانیہ اور آئرلینڈ کے ایس ایم بی صارفین کو کلاؤڈ پر دوبارہ تعمیر اور اختراع کرنے کا مشورہ دیتا ہے۔ ڈیرن سرور لیس آرکیٹیکچرز کے ساتھ تیار کردہ ایپلی کیشنز میں دلچسپی رکھتا ہے اور وہ مشین لرننگ کے ساتھ پائیداری کے چیلنجوں کو حل کرنے کے بارے میں پرجوش ہے۔
- '
- "
- 000
- 10
- 100
- 28
- a
- ہمارے بارے میں
- خلاصہ
- رفتار کو تیز تر
- اکاؤنٹ
- درست
- حاصل
- کے پار
- پتہ
- منہ بولابیٹا بنانے
- مشیر
- AI
- کی اجازت دیتا ہے
- ایمیزون
- ایمیزون ویب سروسز
- مقدار
- تجزیہ
- اے پی آئی
- ایپل
- ایپلی کیشنز
- کا اطلاق کریں
- دلائل
- مضامین
- منسلک
- خودکار
- دستیاب
- سے نوازا
- AWS
- کیونکہ
- شروع
- کیا جا رہا ہے
- BEST
- بہترین طریقوں
- کے درمیان
- تعمیر
- کاروبار
- فون
- حاصل کر سکتے ہیں
- صلاحیتوں
- کیس
- مقدمات
- چیلنجوں
- انتخاب
- طبقے
- درجہ بندی
- بادل
- کوڈ
- مجموعہ
- کے مجموعے
- مل کر
- کمیونٹی
- کمیونٹی
- کمپنیاں
- پیچیدہ
- کمپیوٹنگ
- کمپیوٹر
- ترتیب
- صارفین
- کھپت
- کنٹینر
- کنٹینر
- جاری ہے
- تخلیق
- پیدا
- اپنی مرضی کے
- گاہکوں
- اپنی مرضی کے مطابق
- اعداد و شمار
- دن
- گہری
- ترسیل
- مظاہرہ
- demonstrated,en
- منحصر ہے
- تعیناتی
- تعینات
- تعینات
- تعیناتی
- ڈیزائن
- ڈویلپرز
- ترقی
- ترقی
- مختلف
- مشکل
- ڈیجیٹل
- براہ راست
- دکھائیں
- میں Docker
- ڈاکٹر
- دستاویزات
- ڈومین
- ڈومینز
- ڈاؤن لوڈ، اتارنا
- ہر ایک
- آسانی سے
- موثر
- کارکردگی
- کو فعال کرنا
- اختتام پوائنٹ
- انجینئرز
- ہستی
- ماحولیات
- اندازہ
- مثال کے طور پر
- مثال کے طور پر
- توسیع
- توقعات
- تجربہ
- تجربہ کار
- تجربہ
- وسیع
- چہرہ
- فاسٹ
- تیز تر
- خصوصیات
- کے بعد
- فارمیٹ
- فریم ورک
- فریم ورک
- سے
- جنرل
- پیدا
- پیدا
- گلوبل
- اچھا
- بڑھتے ہوئے
- مدد
- مدد گار
- مدد کرتا ہے
- اعلی
- کس طرح
- کیسے
- HTTPS
- حب
- انسانی پڑھنے کے قابل
- شناخت
- تصویر
- پر عملدرآمد
- نفاذ
- پر عمل درآمد
- اہم
- شامل
- سمیت
- معلومات
- بدعت
- ان پٹ
- بصیرت
- مثال کے طور پر
- ضم
- انضمام
- دلچسپی
- آئر لینڈ
- IT
- خود
- ایوب
- سفر
- کلیدی
- علم
- زبان
- زبانیں
- بڑے
- معروف
- سیکھنے
- سطح
- لائبریری
- حدود
- لائن
- LINK
- لینکس
- لسٹ
- لوڈ
- مقامی طور پر
- لندن
- تلاش
- مشین
- مشین لرننگ
- بنا
- مارکیٹ
- میچ
- بامعنی
- اجلاسوں میں
- اراکین
- پیمائش کا معیار
- ML
- ماڈل
- ماڈل
- نگرانی
- زیادہ
- سب سے زیادہ
- ایک سے زیادہ
- قدرتی
- اگلے
- نوڈس
- نوٹ بک
- نوٹس
- کی پیشکش
- تجویز
- آن لائن
- کھول
- کام
- آپریشن
- کی اصلاح کریں
- اصلاح
- اصلاح
- دیگر
- خود
- جذبہ
- جذباتی
- کارکردگی
- کارکردگی کا مظاہرہ
- جملے
- پوائنٹ
- مقبول
- طاقت
- تیار
- پچھلا
- عمل
- پروسیسنگ
- پیدا
- پیداوار
- حاصل
- منصوبوں
- فراہم
- فراہم
- فراہم کرتا ہے
- جلدی سے
- رینج
- تجویز ہے
- کو کم کرنے
- خطے
- رجسٹر
- درخواست
- کی ضرورت
- ضروریات
- وسائل
- نتیجے
- کردار
- رن
- چل رہا ہے
- اسی
- پیمانے
- سائنسدانوں
- sdk
- ہموار
- منتخب
- جذبات
- بے سرور
- سروسز
- مقرر
- کئی
- دکھایا گیا
- سادہ
- ایک
- So
- حل
- مخصوص
- رفتار
- معیار
- شروع
- ریاستی آرٹ
- درجہ
- ذخیرہ
- حمایت
- پائیداری
- سسٹمز
- کاموں
- تکنیک
- ٹیکنالوجی
- ٹیسٹنگ
- ۔
- تین
- کے ذریعے
- وقت
- وقت لگتا
- اوزار
- موضوع
- ٹریننگ
- ترجمہ
- قابل اعتماد
- اقسام
- عام طور پر
- Uk
- کے تحت
- سمجھ
- افہام و تفہیم
- منفرد
- استعمال کی شرائط
- مختلف اقسام کے
- مختلف
- ورژن
- عمودی
- نقطہ نظر
- جلد
- طریقوں
- ویب
- ویب خدمات
- کے اندر
- بغیر
- الفاظ
- کام کر
- X
- سال
- اور