ویڈیو گیمز سے لے کر ٹیلی کمیونیکیشن تک کی صنعتوں میں پھیلی ہوئی جدید زندگی میں آن لائن گفتگو ہر جگہ موجود ہے۔ اس سے آن لائن بات چیت کے ڈیٹا کی مقدار میں تیزی سے اضافہ ہوا ہے، جس نے چیٹ بوٹس اور نیچرل لینگویج جنریشن (NLG) ماڈلز جیسے جدید ترین نیچرل لینگویج پروسیسنگ (NLP) سسٹمز کی ترقی میں مدد کی ہے۔ وقت گزرنے کے ساتھ، متن کے تجزیہ کے لیے مختلف NLP تکنیکیں بھی تیار ہوئیں۔ یہ مکمل طور پر منظم سروس کی ضرورت کی ضرورت ہے جو وسیع مشین لرننگ (ML) مہارت کی ضرورت کے بغیر API کالز کا استعمال کرتے ہوئے ایپلی کیشنز میں ضم کیا جا سکتا ہے۔ AWS پہلے سے تربیت یافتہ AWS AI خدمات پیش کرتا ہے۔ ایمیزون کی تعریف، جو متن سے بصیرت جمع کرنے کے لیے درجہ بندی، متن کا خلاصہ، ہستی کی شناخت، اور بہت کچھ پر مشتمل NLP استعمال کے معاملات کو مؤثر طریقے سے سنبھال سکتا ہے۔
مزید برآں، آن لائن بات چیت نے زبان کے غیر روایتی استعمال کے وسیع پیمانے پر رجحان کو جنم دیا ہے۔ روایتی NLP تکنیک اکثر اس متن کے اعداد و شمار پر خراب کارکردگی کا مظاہرہ کرتی ہے کیونکہ مختلف پلیٹ فارمز کے اندر موجود مسلسل تیار ہوتی ہوئی اور ڈومین سے متعلق مخصوص الفاظ کے ساتھ ساتھ مناسب انگریزی سے الفاظ کے اہم لغوی انحراف، یا تو حادثاتی طور پر یا جان بوجھ کر مخالفانہ حملے کی ایک شکل کے طور پر۔ .
اس پوسٹ میں، ہم AWS پر دستیاب آلات اور خدمات کے ساتھ آن لائن بات چیت کی متن کی درجہ بندی کے لیے متعدد ML طریقوں کی وضاحت کرتے ہیں۔
شرائط
استعمال کے اس معاملے میں گہرائی میں جانے سے پہلے، براہ کرم درج ذیل شرائط کو مکمل کریں:
- سیٹ اپ a AWS اکاؤنٹ اور IAM صارف بنائیں.
- سیٹ کریں AWS CLI اور AWS SDKs۔.
- (اختیاری) اپنا سیٹ اپ کریں۔ Cloud9 IDE ماحول.
ڈیٹا بیس
اس پوسٹ کے لیے، ہم استعمال کرتے ہیں۔ زہریلا درجہ بندی ڈیٹاسیٹ میں Jigsaw غیر ارادی تعصبآن لائن بات چیت میں زہریلے کی درجہ بندی کے مخصوص مسئلے کے لیے ایک معیار۔ ڈیٹاسیٹ زہریلے لیبلز کے ساتھ ساتھ کئی ذیلی گروپ صفات فراہم کرتا ہے جیسے فحش، شناخت پر حملہ، توہین، دھمکی، اور جنسی طور پر واضح۔ لیبلز کو جزوی اقدار کے طور پر فراہم کیا جاتا ہے، جو انسانی تشریح کرنے والوں کے تناسب کی نمائندگی کرتے ہیں جنہوں نے متن کے دیئے گئے حصے پر لاگو ہونے والی خصوصیت پر یقین کیا ہے، جو شاذ و نادر ہی متفق ہیں۔ بائنری لیبل تیار کرنے کے لیے (مثال کے طور پر، زہریلا یا غیر زہریلا)، 0.5 کی حد کو جزوی اقدار پر لاگو کیا جاتا ہے، اور حد سے زیادہ قدروں والے تبصروں کو اس لیبل کے لیے مثبت کلاس سمجھا جاتا ہے۔
سب ورڈ ایمبیڈنگ اور RNNs
ہمارے پہلے ماڈلنگ اپروچ کے لیے، ہم ٹیکسٹ کی درجہ بندی کے ماڈلز کو تربیت دینے کے لیے سب ورڈ ایمبیڈنگ اور ریکرنٹ نیورل نیٹ ورکس (RNNs) کا ایک مجموعہ استعمال کرتے ہیں۔ ذیلی لفظ ایمبیڈنگز متعارف کرائے گئے تھے۔ بوجانوسکی وغیرہ۔ 2017 میں پچھلے لفظ کی سطح پر سرایت کرنے کے طریقوں میں بہتری کے طور پر۔ روایتی Word2Vec skip-gram ماڈلز کو ایک ہدف والے لفظ کی جامد ویکٹر کی نمائندگی سیکھنے کی تربیت دی جاتی ہے جو اس لفظ کے سیاق و سباق کی بہتر انداز میں پیش گوئی کرتا ہے۔ دوسری طرف ذیلی الفاظ کے ماڈلز ہر ہدف والے لفظ کو n-grams کردار کے ایک بیگ کے طور پر پیش کرتے ہیں جو لفظ کو بناتا ہے، جہاں ایک n-gram مسلسل n حروف کے سیٹ پر مشتمل ہوتا ہے۔ یہ طریقہ سرایت کرنے والے ماڈل کو کارپس میں متعلقہ الفاظ کی بنیادی شکل کے ساتھ ساتھ ناول، آؤٹ آف ووکیبلری (OOV) الفاظ کے لیے سرایت کی گنتی کی بہتر نمائندگی کرنے کی اجازت دیتا ہے۔ یہ آن لائن بات چیت کے تناظر میں خاص طور پر اہم ہے، ایک مسئلہ کی جگہ جس میں صارفین اکثر الفاظ کی غلط ہجے کرتے ہیں (کبھی کبھی جان بوجھ کر پتہ لگانے سے بچنے کے لیے) اور ایک منفرد، مسلسل تیار ہوتی ہوئی ذخیرہ الفاظ بھی استعمال کرتے ہیں جو شاید کسی عام تربیتی کارپس کے ذریعے حاصل نہ ہو۔
ایمیزون سیج میکر بلٹ ان کے ساتھ ڈومین کے مخصوص ٹیکسٹ ڈیٹا کے آپ کے اپنے کارپس پر غیر زیر نگرانی سب ورڈ ایمبیڈنگ ماڈل کو تربیت دینا اور بہتر بنانا آسان بناتا ہے۔ بلیزنگ ٹیکسٹ الگورتھم. ہم آن لائن ٹیکسٹ کے بڑے ڈیٹاسیٹس پر تربیت یافتہ عام مقصد کے موجودہ ماڈلز بھی ڈاؤن لوڈ کر سکتے ہیں، جیسے کہ درج ذیل انگریزی زبان کے ماڈلز براہ راست فاسٹ ٹیکسٹ سے دستیاب ہیں۔. اپنی سیج میکر نوٹ بک مثال سے، پہلے سے تربیت یافتہ فاسٹ ٹیکسٹ ماڈل ڈاؤن لوڈ کرنے کے لیے صرف درج ذیل کو چلائیں۔
چاہے آپ نے BlazingText کے ساتھ اپنے ایمبیڈنگز کی تربیت کی ہو یا پہلے سے تربیت یافتہ ماڈل ڈاؤن لوڈ کیا ہو، نتیجہ ایک زپ شدہ ماڈل بائنری ہے جسے آپ جینسم لائبریری کے ساتھ استعمال کر سکتے ہیں تاکہ کسی مخصوص ٹارگٹ لفظ کو اس کے اجزاء کے ذیلی الفاظ کی بنیاد پر بطور ویکٹر سرایت کر سکیں:
متن کے ایک دیے گئے حصے کو پہلے سے پروسیس کرنے کے بعد، ہم اس نقطہ نظر کو استعمال کرتے ہوئے ہر ایک جزوی لفظ کے لیے ویکٹر کی نمائندگی کر سکتے ہیں (جیسا کہ خالی جگہوں سے الگ کیا گیا ہے)۔ اس کے بعد ہم SageMaker اور ایک گہری سیکھنے کے فریم ورک کا استعمال کرتے ہیں جیسے PyTorch ایک حسب ضرورت RNN کو بائنری یا ملٹی لیبل درجہ بندی کے مقصد کے ساتھ تربیت دینے کے لیے یہ پیشین گوئی کرنے کے لیے کہ آیا متن زہریلا ہے یا نہیں اور مخصوص ذیلی قسم کی زہریلا کی بنیاد لیبل شدہ تربیتی مثالوں کی بنیاد پر۔
اپنے پہلے سے پروسیس شدہ ٹیکسٹ کو اپ لوڈ کرنے کے لیے ایمیزون سادہ اسٹوریج سروس (ایمیزون S3)، درج ذیل کوڈ کا استعمال کریں:
SageMaker کے ساتھ توسیع پذیر، کثیر GPU ماڈل ٹریننگ شروع کرنے کے لیے، درج ذیل کوڈ درج کریں:
کے اندر ، ہم ایک PyTorch ڈیٹا سیٹ کی وضاحت کرتے ہیں جو استعمال کیا جاتا ہے۔ train.py
ماڈل کی تربیت اور تشخیص کے لیے ٹیکسٹ ڈیٹا تیار کرنے کے لیے:
نوٹ کریں کہ یہ کوڈ توقع کرتا ہے کہ vectors.zip
آپ کے فاسٹ ٹیکسٹ یا بلیزنگ ٹیکسٹ ایمبیڈنگز پر مشتمل فائل کو اسٹور کیا جائے گا۔ .
مزید برآں، آپ آسانی سے پہلے سے تربیت یافتہ فاسٹ ٹیکسٹ ماڈلز کو اپنے طور پر لائیو سیج میکر اینڈ پوائنٹس کے لیے متعین کر سکتے ہیں تاکہ متعلقہ لفظی سطح کے کاموں میں استعمال کے لیے فلائی پر ایمبیڈنگ ویکٹر کی گنتی کی جا سکے۔ درج ذیل دیکھیں GitHub کی مثال مزید تفصیلات کے لئے.
گلے ملنے والے چہرے کے ساتھ ٹرانسفارمرز
ہمارے دوسرے ماڈلنگ اپروچ کے لیے، ہم کاغذ میں متعارف کرائے گئے ٹرانسفارمرز کے استعمال کی طرف منتقل ہوتے ہیں۔ توجہ صرف آپ کی ضرورت ہے۔. ٹرانسفارمرز گہری سیکھنے کے ماڈل ہیں جو ان پٹ اور آؤٹ پٹ کے درمیان عالمی انحصار کو اپنی طرف متوجہ کرنے کے لیے خود توجہ دینے کے طریقہ کار پر انحصار کرتے ہوئے جان بوجھ کر RNNs کے نقصانات سے بچنے کے لیے بنائے گئے ہیں۔ ٹرانسفارمر ماڈل کا فن تعمیر نمایاں طور پر بہتر ہم آہنگی کی اجازت دیتا ہے اور نسبتاً کم تربیتی وقت میں اعلیٰ کارکردگی حاصل کر سکتا ہے۔
ٹرانسفارمرز کی کامیابی پر بنایا گیا، BERT، کاغذ میں متعارف کرایا گیا۔ BERT: زبان کی تفہیم کے لیے گہری دو طرفہ ٹرانسفارمرز کی پری ٹریننگ، زبان کی نمائندگی کے لیے دو طرفہ پری ٹریننگ شامل کی گئی۔ Cloze ٹاسک سے متاثر ہو کر، BERT کو ماسکڈ لینگویج ماڈلنگ (MLM) کے ساتھ پہلے سے تربیت دی گئی ہے، جس میں ماڈل بے ترتیب طور پر ماسکڈ ٹوکنز کے لیے اصل الفاظ کو بازیافت کرنا سیکھتا ہے۔ BERT ماڈل کو اگلے جملے کی پیشن گوئی (NSP) کے کام پر بھی پہلے سے تربیت دی گئی ہے تاکہ یہ اندازہ لگایا جا سکے کہ آیا دو جملے درست پڑھنے کی ترتیب میں ہیں۔ 2018 میں اس کی آمد کے بعد سے، BERT اور اس کے تغیرات کو متن کی درجہ بندی کے کاموں میں بڑے پیمانے پر استعمال کیا گیا ہے۔
ہمارا حل BERT کی ایک قسم کا استعمال کرتا ہے جسے RoBERTa کہا جاتا ہے، جسے پیپر میں متعارف کرایا گیا تھا۔ RoBERTA: ایک مضبوط طریقے سے بہتر بنایا گیا BERT پری ٹریننگ اپروچ. RoBERTa مختلف قسم کے قدرتی زبان کے کاموں پر BERT کی کارکردگی کو بہتر بناتا ہے جس میں 10 گنا بڑے کارپس پر لمبا ٹریننگ ماڈل شامل ہیں، آپٹمائزڈ ہائپر پیرامیٹر کا استعمال، ڈائنامک رینڈم ماسکنگ، NSP ٹاسک کو ہٹانا، اور بہت کچھ۔
ہمارے RoBERta پر مبنی ماڈل استعمال کرتے ہیں۔ گلے لگانا چہرہ ٹرانسفارمرز لائبریری، جو ایک مقبول اوپن سورس Python فریم ورک ہے جو NLP کاموں کی ایک قسم کے لیے تمام قسم کے جدید ترین ٹرانسفارمر ماڈلز کے اعلیٰ معیار کے نفاذ فراہم کرتا ہے۔ Hugging Face نے AWS کے ساتھ شراکت داری کی ہے۔ آپ کو آسانی سے سیج میکر پر ٹرانسفارمر ماڈلز کی تربیت اور تعینات کرنے کے قابل بنانے کے لیے۔ یہ فعالیت کے ذریعے دستیاب ہے۔ ہگنگ فیس AWS ڈیپ لرننگ کنٹینر کی تصاویرجس میں ٹرانسفارمرز، ٹوکنائزرز، اور ڈیٹاسیٹس کی لائبریریاں شامل ہیں، اور ماڈل ٹریننگ اور اندازہ کے لیے SageMaker کے ساتھ آپٹمائزڈ انضمام۔
ہمارے نفاذ میں، ہمیں ہگنگ فیس ٹرانسفارمرز فریم ورک سے RoBERTa آرکیٹیکچر بیک بون وراثت میں ملتا ہے اور اپنے ٹیکسٹ کلاسیفکیشن ماڈل کو تربیت دینے اور تعینات کرنے کے لیے SageMaker کا استعمال کرتے ہیں، جسے ہم RoBERTox کہتے ہیں۔ RoBERTox بائٹ پیئر انکوڈنگ (BPE) کا استعمال کرتا ہے، جس میں متعارف کرایا گیا ہے۔ سب ورڈ یونٹس کے ساتھ نایاب الفاظ کا نیورل مشین ترجمہ، ذیلی الفاظ کی نمائندگی میں ان پٹ ٹیکسٹ کو ٹوکنائز کرنا۔ اس کے بعد ہم اپنے ماڈلز اور ٹوکنائزرز کو Jigsaw ڈیٹا یا کسی بڑے ڈومین کے لیے مخصوص کارپس (جیسے کہ کسی مخصوص گیم سے چیٹ لاگز) پر تربیت دے سکتے ہیں اور انہیں حسب ضرورت متن کی درجہ بندی کے لیے استعمال کر سکتے ہیں۔ ہم درج ذیل کوڈ میں اپنی حسب ضرورت درجہ بندی ماڈل کلاس کی وضاحت کرتے ہیں:
تربیت سے پہلے، ہم Hugging Face کی ڈیٹاسیٹس لائبریری کا استعمال کرتے ہوئے اپنا ٹیکسٹ ڈیٹا اور لیبل تیار کرتے ہیں اور نتیجہ Amazon S3 پر اپ لوڈ کرتے ہیں:
ہم RNN کی طرح ماڈل کی تربیت شروع کرتے ہیں:
آخر میں، مندرجہ ذیل Python کوڈ کا ٹکڑا JSON کی درخواست کے لیے ریئل ٹائم ٹیکسٹ کی درجہ بندی کے لیے لائیو SageMaker اینڈ پوائنٹ کے ذریعے RoBERTox کو پیش کرنے کے عمل کی وضاحت کرتا ہے:
ماڈل کی کارکردگی کا اندازہ: Jigsaw غیر ارادی تعصب ڈیٹاسیٹ
مندرجہ ذیل جدول زہریلے پن کا پتہ لگانے کے کیگل مقابلے میں Jigsaw Unintended Bias کے ڈیٹا پر تربیت یافتہ اور جانچے گئے ماڈلز کے لیے کارکردگی کے میٹرکس پر مشتمل ہے۔ ہم نے ماڈلز کو تین مختلف لیکن باہم مربوط کاموں کے لیے تربیت دی:
- بائنری کیس - ماڈل کی پیشن گوئی کرنے کے لیے مکمل تربیتی ڈیٹاسیٹ پر تربیت دی گئی تھی۔
toxicity
صرف لیبل - باریک کیس - تربیتی ڈیٹا کا سب سیٹ جس کے لیے
toxicity>=0.5
دوسرے زہریلے ذیلی قسم کے لیبلوں کی پیشن گوئی کرنے کے لیے استعمال کیا گیا تھا (obscene
,threat
,insult
,identity_attack
,sexual_explicit
) - ملٹی ٹاسک کیس - مکمل تربیتی ڈیٹاسیٹ کا استعمال بیک وقت تمام چھ لیبلوں کی پیش گوئی کرنے کے لیے کیا گیا تھا۔
ہم نے RNN اور RoBERTa ماڈلز کو ان تینوں کاموں میں سے ہر ایک کے لیے Jigsaw کے فراہم کردہ فریکشنل لیبلز کا استعمال کرتے ہوئے تربیت دی، جو کہ متن کے لیے لیبل کو مناسب سمجھتے تھے، اور ساتھ ہی نیٹ ورک میں کلاس کے وزن کے ساتھ مل کر بائنری لیبلز کے ساتھ بھی۔ نقصان کی تقریب. بائنری لیبلنگ اسکیم میں، ہر دستیاب لیبل کے لیے تناسب کی حد 0.5 تھی (1 اگر لیبل> = 0.5، 0 بصورت دیگر)، اور ٹریننگ ڈیٹاسیٹ میں ہر بائنری لیبل کے رشتہ دار تناسب کی بنیاد پر ماڈل کے نقصان کے افعال کا وزن کیا گیا تھا۔ تمام صورتوں میں، ہم نے پایا کہ جزوی لیبلز کا استعمال براہ راست بہترین کارکردگی کا نتیجہ ہے، جو تشریح کرنے والوں کے درمیان معاہدے کی ڈگری میں شامل معلومات کی اضافی قدر کی نشاندہی کرتا ہے۔
ہم دو ماڈل میٹرکس دکھاتے ہیں: اوسط درستگی (AP)، جو ہر درجہ بندی کی دہلیز پر حاصل کی گئی درستگی کی قدروں کے وزنی وسط کو کمپیوٹنگ کرکے، اور وصول کنندہ آپریٹنگ خصوصیت کے منحنی خطوط (AUC) کے نیچے کا رقبہ فراہم کرتا ہے۔ ، جو ماڈل کی کارکردگی کو درجہ بندی کی حدوں میں حقیقی مثبت شرح اور غلط مثبت شرح کے حوالے سے جمع کرتا ہے۔ نوٹ کریں کہ ٹیسٹ سیٹ میں دیے گئے متن کی مثال کے لیے حقیقی کلاس اس سے مطابقت رکھتی ہے کہ آیا حقیقی تناسب 0.5 سے زیادہ ہے یا اس کے برابر ہے (1 اگر لیبل>=0.5، 0 بصورت دیگر)۔
. | ذیلی لفظ ایمبیڈنگ + RNN | روبرٹا | ||
. | فریکشنل لیبلز | بائنری لیبلز + کلاس ویٹنگ | فریکشنل لیبلز | بائنری لیبلز + کلاس ویٹنگ |
ثنائی | اے پی = 0.746، AUC=0.966 | AP=0.730، AUC=0.963 | AP=0.758، AUC=0.966 | AP=0.747، AUC=0.963 |
ٹھیک ہے | AP=0.906، AUC=0.909 | AP=0.850، AUC=0.851 | AP=0.913، AUC=0.913 | AP=0.911، AUC=0.912 |
Multitask | اے پی = 0.721، AUC=0.972 | AP=0.535، AUC=0.907 | AP=0.740، AUC=0.972 | AP=0.711، AUC=0.961 |
نتیجہ
اس پوسٹ میں، ہم نے AWS ML سروسز کا استعمال کرتے ہوئے آن لائن بات چیت کے لیے متن کی درجہ بندی کے دو طریقے پیش کیے ہیں۔ آپ ان حلوں کو آن لائن کمیونیکیشن پلیٹ فارمز پر عام کر سکتے ہیں، جس میں گیمنگ جیسی صنعتوں کو خاص طور پر نقصان دہ مواد کا پتہ لگانے کی بہتر صلاحیت سے فائدہ پہنچنے کا امکان ہے۔ مستقبل کی پوسٹس میں، ہم آپ کے AWS اکاؤنٹ میں ماڈلز کی ہموار تعیناتی کے لیے اینڈ ٹو اینڈ فن تعمیر پر مزید بحث کرنے کا ارادہ رکھتے ہیں۔
اگر آپ اپنی مصنوعات اور عمل میں ایم ایل کے استعمال کو تیز کرنے میں مدد چاہتے ہیں، تو براہ کرم رابطہ کریں۔ ایمیزون ایم ایل حل لیب.
مصنفین کے بارے میں
ریان برانڈ ایمیزون مشین لرننگ سلوشنز لیب میں ڈیٹا سائنٹسٹ ہے۔ اسے صحت کی دیکھ بھال اور لائف سائنسز میں مسائل پر مشین لرننگ کا اطلاق کرنے کا خاص تجربہ ہے، اور اپنے فارغ وقت میں وہ تاریخ اور سائنس فکشن پڑھنے سے لطف اندوز ہوتے ہیں۔
سورو بھابیش ایمیزون ایم ایل سلوشنز لیب میں ڈیٹا سائنٹسٹ ہے۔ وہ مختلف صنعتوں میں AWS صارفین کے لیے AI/ML حل تیار کرتا ہے۔ اس کی خصوصیت نیچرل لینگویج پروسیسنگ (NLP) ہے اور گہری سیکھنے کا شوق ہے۔ کام سے باہر اسے کتابیں پڑھنے اور سفر کرنے میں مزہ آتا ہے۔
لیوٹونگ چاؤ Amazon ML Solutions Lab میں ایک اپلائیڈ سائنٹسٹ ہے۔ وہ مختلف صنعتوں میں AWS صارفین کے لیے اپنی مرضی کے مطابق AI/ML حل تیار کرتا ہے۔ وہ نیچرل لینگویج پروسیسنگ (NLP) میں مہارت رکھتا ہے اور ملٹی ماڈل ڈیپ لرننگ کا شوق رکھتا ہے۔ وہ ایک گیت کا ٹینر ہے اور کام کے باہر اوپیرا گانے سے لطف اندوز ہوتا ہے۔
سیا غلامی۔ ایمیزون ایم ایل سلوشنز لیب میں ایک سینئر ڈیٹا سائنٹسٹ ہے، جہاں وہ مختلف صنعتوں کے صارفین کے لیے AI/ML سلوشنز تیار کرتا ہے۔ وہ قدرتی زبان کی پروسیسنگ (NLP) اور گہری تعلیم کے بارے میں پرجوش ہے۔ کام سے باہر، سیا فطرت میں وقت گزارنے اور ٹینس کھیلنا پسند کرتی ہے۔
ڈینیئل ہورووٹز ایک اپلائیڈ AI سائنس مینیجر ہے۔ وہ ایمیزون ایم ایل سلوشنز لیب میں سائنسدانوں کی ایک ٹیم کی قیادت کرتے ہیں جو صارفین کے مسائل کو حل کرنے اور ایم ایل کے ساتھ کلاؤڈ اپنانے کے لیے کام کر رہی ہے۔
- '
- "
- 10
- 100
- 7
- a
- کی صلاحیت
- ہمارے بارے میں
- تیز
- اکاؤنٹ
- حاصل
- حاصل کیا
- کے پار
- شامل کیا
- منہ بولابیٹا بنانے
- معاہدہ
- AI
- AI خدمات
- تمام
- کی اجازت دیتا ہے
- ایمیزون
- رقم
- تجزیہ
- اے پی آئی
- ایپلی کیشنز
- اطلاقی
- کا اطلاق کریں
- درخواست دینا
- نقطہ نظر
- نقطہ نظر
- مناسب
- فن تعمیر
- رقبہ
- اوصاف
- دستیاب
- اوسط
- AWS
- بیگ
- معیار
- فائدہ
- BEST
- بہتر
- کے درمیان
- بڑا
- کتب
- بناتا ہے
- تعمیر میں
- فون
- کیس
- مقدمات
- حروف
- طبقے
- درجہ بندی
- بادل
- کوڈ
- مجموعہ
- مل کر
- تبصروں
- مواصلات
- مقابلہ
- مکمل
- پر مشتمل
- حساب
- کمپیوٹنگ
- کمپیوٹنگ
- مسلسل
- مسلسل
- رابطہ کریں
- کنٹینر
- پر مشتمل ہے
- مواد
- بات چیت
- مکالمات
- تخلیق
- وکر
- اپنی مرضی کے
- گاہک
- گاہکوں
- اعداد و شمار
- ڈیٹا سائنسدان
- گہری
- تعیناتی
- تعیناتی
- بیان
- ڈیزائن
- تفصیلات
- کھوج
- اس بات کا تعین
- ترقی
- مختلف
- طول و عرض
- براہ راست
- بات چیت
- دکھائیں
- ڈاؤن لوڈ، اتارنا
- ڈرائیو
- کے دوران
- متحرک
- ہر ایک
- آسانی سے
- مؤثر طریقے
- کو چالو کرنے کے
- آخر سے آخر تک
- اختتام پوائنٹ
- انگریزی
- درج
- ہستی
- تشخیص
- تیار ہوتا ہے
- مثال کے طور پر
- مثال کے طور پر
- موجودہ
- تجربہ
- مہارت
- وسیع
- چہرہ
- فیشن
- افسانے
- پہلا
- کے بعد
- فارم
- آگے
- ملا
- جزوی
- فریم ورک
- مفت
- سے
- مکمل
- تقریب
- فعالیت
- افعال
- مزید
- مستقبل
- کھیل ہی کھیل میں
- کھیل
- گیمنگ
- جنرل
- عام مقصد
- پیدا
- نسل
- گلوبل
- زیادہ سے زیادہ
- ترقی
- ہینڈل
- سر
- صحت کی دیکھ بھال
- مدد
- مدد
- ہائی
- اعلی معیار کی
- تاریخ
- HTTPS
- انسانی
- شناختی
- نفاذ
- اہم
- بہتر
- بہتری
- شامل
- سمیت
- صنعتوں
- معلومات
- ذاتی، پیدائشی
- ان پٹ
- بصیرت
- متاثر
- مثال کے طور پر
- باطل
- ضم
- انضمام
- IT
- jigsaw
- ایوب
- چابیاں
- جانا جاتا ہے
- لیب
- لیبل
- لیبل
- لیبل
- زبان
- بڑے
- بڑے
- پرت
- لیڈز
- جانیں
- سیکھنے
- قیادت
- لائبریری
- زندگی سائنس
- امکان
- رہتے ہیں
- لوڈ
- مشین
- مشین لرننگ
- بنا
- بناتا ہے
- میں کامیاب
- مینیجر
- ماسک
- ماسک
- میچ
- میٹرکس
- میکانزم
- یاد داشت
- طریقوں
- پیمائش کا معیار
- شاید
- ML
- ماڈل
- ماڈل
- زیادہ
- ایک سے زیادہ
- قدرتی
- فطرت، قدرت
- نیٹ ورک
- نیٹ ورک
- اگلے
- نوٹ بک
- تعداد
- تجویز
- آن لائن
- کام
- کی اصلاح کریں
- اصلاح
- حکم
- اصل
- دیگر
- دوسری صورت میں
- خود
- کاغذ.
- خاص طور پر
- شراکت دار
- جذباتی
- کارکردگی
- ٹکڑا
- پلیٹ فارم
- کھیل
- مہربانی کرکے
- مقبول
- مثبت
- مراسلات
- پیشن گوئی
- کی پیشن گوئی
- تیار
- پچھلا
- مسئلہ
- مسائل
- عمل
- عمل
- پروسیسنگ
- حاصل
- پروجیکشن
- فراہم
- فراہم کرتا ہے
- پڑھنا
- اصل وقت
- بازیافت
- متعلقہ
- کو ہٹانے کے
- کی نمائندگی
- نمائندگی
- نمائندگی
- درخواست
- واپسی
- واپسی
- کردار
- رن
- توسیع پذیر
- سکیم
- سائنس
- سائنس
- سائنسدان
- سائنسدانوں
- ہموار
- حصے
- سروس
- سروسز
- خدمت
- مقرر
- کئی
- مختصر
- اہم
- اسی طرح
- سادہ
- بعد
- چھ
- سائز
- حل
- حل
- حل
- خلا
- خالی جگہیں
- مہارت دیتا ہے
- خاص
- مخصوص
- خرچ کرنا۔
- ریاستی آرٹ
- امریکہ
- ذخیرہ
- کامیابی
- سسٹمز
- ہدف
- کاموں
- ٹیم
- تکنیک
- ٹیلی کمیونیکیشن کی
- ٹیسٹ
- ۔
- تین
- حد
- کے ذریعے
- وقت
- اوقات
- ٹوکن
- اوزار
- مشعل
- روایتی
- ٹرین
- ٹریننگ
- منتقلی
- ترجمہ
- سفر
- کے تحت
- منفرد
- استعمال کی شرائط
- صارفین
- توثیق
- قیمت
- مختلف اقسام کے
- مختلف
- ویڈیو
- ویڈیو گیمز
- چاہے
- ڈبلیو
- کے اندر
- بغیر
- الفاظ
- کام
- کام کر
- اور