پیرافراسڈ ٹیکسٹ کی شناخت بہت سے استعمال کے معاملات میں کاروباری قدر رکھتی ہے۔ مثال کے طور پر، جملے کے پیرا فریسز کی شناخت کرکے، متن کا خلاصہ کرنے کا نظام بے کار معلومات کو ہٹا سکتا ہے۔ ایک اور درخواست سرقہ شدہ دستاویزات کی نشاندہی کرنا ہے۔ اس پوسٹ میں، ہم ٹھیک ٹیون a گلے لگانے والا چہرہ ٹرانسفارمر آن ایمیزون سیج میکر چند مراحل میں پیرافراسڈ جملے کے جوڑوں کی شناخت کرنے کے لیے۔
واقعی ایک مضبوط ماڈل پیرافراسڈ ٹیکسٹ کی شناخت کر سکتا ہے جب استعمال کی جانے والی زبان مکمل طور پر مختلف ہو سکتی ہے، اور اس وقت بھی فرق کی نشاندہی کر سکتا ہے جب استعمال شدہ زبان میں زیادہ لغوی اوورلیپ ہو۔ اس پوسٹ میں، ہم مؤخر الذکر پہلو پر توجہ مرکوز کرتے ہیں۔ خاص طور پر، ہم یہ دیکھتے ہیں کہ آیا ہم ایک ایسے ماڈل کو تربیت دے سکتے ہیں جو دو جملوں کے درمیان فرق کو پہچان سکے جن کے لغوی اوورلیپ اور بہت مختلف یا مخالف معنی ہیں۔ مثال کے طور پر، درج ذیل جملے میں بالکل وہی الفاظ ہیں لیکن معانی متضاد ہیں:
- میں نے نیویارک سے پیرس کی فلائٹ لی
- میں نے پیرس سے نیویارک کی فلائٹ لی
حل جائزہ
ہم آپ کو درج ذیل اعلیٰ سطحی مراحل سے گزارتے ہیں:
- ماحول کو ترتیب دیں۔
- ڈیٹا تیار کریں۔
- ڈیٹاسیٹ کو ٹوکنائز کریں۔
- ماڈل کو ٹھیک بنائیں۔
- ماڈل کو تعینات کریں اور اندازہ لگائیں۔
- ماڈل کی کارکردگی کا اندازہ کریں۔
اگر آپ ماحول کو ترتیب دینا چھوڑنا چاہتے ہیں، تو آپ درج ذیل نوٹ بک کو آن استعمال کر سکتے ہیں۔ GitHub کے اور SageMaker میں کوڈ چلائیں۔
Hugging Face اور AWS نے 2022 کے شروع میں ایک شراکت کا اعلان کیا تھا جو SageMaker پر Hugging Face ماڈلز کو تربیت دینا اور بھی آسان بناتا ہے۔ یہ فعالیت ہگنگ فیس کی ترقی کے ذریعے دستیاب ہے۔ AWS ڈیپ لرننگ کنٹینرز (DLCs). ان کنٹینرز میں Hugging Face Transformers، Tokenizers، اور Datasets لائبریری شامل ہیں، جو ہمیں ان وسائل کو تربیت اور انفرنس کی ملازمتوں کے لیے استعمال کرنے کی اجازت دیتی ہے۔ دستیاب DLC امیجز کی فہرست کے لیے، دیکھیں دستیاب ڈیپ لرننگ کنٹینرز امیجز. وہ حفاظتی پیچ کے ساتھ برقرار اور باقاعدگی سے اپ ڈیٹ ہوتے ہیں۔ آپ کو ان DLCs کے ساتھ Hugging Face ماڈلز کو تربیت دینے کی بہت سی مثالیں مل سکتی ہیں۔ Python SDK کو گلے لگانا مندرجہ ذیل میں GitHub repo.
PAWS ڈیٹاسیٹ
موثر جملے کے جوڑے ڈیٹاسیٹس کی کمی کو محسوس کرتے ہوئے جو پیرا فریسز کے بغیر اعلی لغوی اوورلیپ کی نمائش کرتے ہیں، اصل PAWS 2019 میں جاری کردہ ڈیٹاسیٹ کا مقصد نیچرل لینگویج پروسیسنگ (NLP) کمیونٹی کو پیرا فریز ڈیٹیکشن ماڈلز کی تربیت اور جانچ کے لیے ایک نیا وسیلہ فراہم کرنا ہے۔ PAWS جملے کے جوڑے استعمال کرتے ہوئے دو مراحل میں بنائے جاتے ہیں۔ وکیپیڈیا اور Quora سوالات کے جوڑے (QQP) ڈیٹاسیٹ۔ ایک زبان کا ماڈل سب سے پہلے ایک جملے کے جوڑے میں الفاظ کو اسی Bag of Words (BOW) کے ساتھ تبدیل کرتا ہے تاکہ ایک جملے کا جوڑا تیار کیا جا سکے۔ ایک پیچھے ترجمہ کا مرحلہ پھر اعلی BOW اوورلیپ کے ساتھ لیکن مختلف الفاظ کی ترتیب کا استعمال کرتے ہوئے پیرا فریسز تیار کرتا ہے۔ حتمی PAWS ڈیٹاسیٹ میں کل 108,000 انسانی لیبل والے اور 656,000 شور کے ساتھ لیبل والے جوڑے ہیں۔
اس پوسٹ میں، ہم استعمال کرتے ہیں PAWS-Wiki لیبل لگا ہوا (فائنل) ہگنگ فیس سے ڈیٹا سیٹ۔ Hugging Face ہمارے لیے پہلے ہی ڈیٹا تقسیم کر چکا ہے، جس کے نتیجے میں تربیتی ڈیٹاسیٹ میں 49,000 جملوں کے جوڑے، اور تصدیق اور ٹیسٹ ڈیٹا سیٹس کے لیے 8,000 جملوں کے جوڑے ہیں۔ تربیتی ڈیٹاسیٹ سے دو جملے جوڑے کی مثالیں درج ذیل مثال میں دکھائی گئی ہیں۔ 1 کا لیبل اشارہ کرتا ہے کہ دو جملے ایک دوسرے کے پیرا فریسز ہیں۔
جملہ 1 | جملہ 2 | لیبل |
اگرچہ قابل تبادلہ، 2 کاروں کے جسم کے ٹکڑے ایک جیسے نہیں ہیں۔ | اگرچہ اسی طرح کے، جسم کے حصوں کو 2 کاروں پر تبدیل نہیں کیا جا سکتا. | 0 |
کاٹز 1947 میں سویڈن میں پیدا ہوئے اور 1 سال کی عمر میں نیو یارک شہر چلے گئے۔ | کاٹز 1947 میں سویڈن میں پیدا ہوئے اور ایک سال کی عمر میں نیویارک چلے گئے۔ | 1 |
شرائط
آپ کو درج ذیل شرائط کو پورا کرنے کی ضرورت ہے:
- اگر آپ کے پاس AWS اکاؤنٹ نہیں ہے تو اس کے لیے سائن اپ کریں۔ مزید معلومات کے لیے دیکھیں ایمیزون سیج میکر کی شرطیں مرتب کریں۔.
- استعمال کرنا شروع کریں۔ سیج میکر نوٹ بک کی مثالیں۔.
- دائیں سیٹ اپ کریں۔ AWS شناخت اور رسائی کا انتظام (IAM) کی اجازت۔ مزید معلومات کے لیے دیکھیں سیج میکر کے کردار.
ماحول قائم کریں
اس سے پہلے کہ ہم ماڈل فائن ٹیوننگ کے لیے اپنے ڈیٹا کی جانچ اور تیاری شروع کریں، ہمیں اپنے ماحول کو ترتیب دینے کی ضرورت ہے۔ آئیے ایک سیج میکر نوٹ بک مثال کو گھماؤ سے شروع کریں۔ اپنے AWS اکاؤنٹ میں AWS ریجن کا انتخاب کریں اور ہدایات پر عمل کریں۔ سیج میکر نوٹ بک مثال بنائیں. نوٹ بک کی مثال کو گھومنے میں چند منٹ لگ سکتے ہیں۔
جب نوٹ بک مثال چل رہی ہو، منتخب کریں۔ conda_pytorch_p38
آپ کے دانا کی قسم کے طور پر۔ Hugging Face ڈیٹاسیٹ کو استعمال کرنے کے لیے، ہمیں پہلے Hugging Face لائبریری کو انسٹال اور امپورٹ کرنے کی ضرورت ہے:
اگلا، آئیے سیج میکر سیشن قائم کرتے ہیں۔ ہم پہلے سے طے شدہ استعمال کرتے ہیں۔ ایمیزون سادہ اسٹوریج سروس (Amazon S3) PAWS ڈیٹاسیٹ اور ماڈل نمونے کو ذخیرہ کرنے کے لیے SageMaker سیشن سے وابستہ بالٹی:
ڈیٹا تیار کریں۔
ہم PAWS ڈیٹاسیٹ کے Hugging Face ورژن کو اس کے ساتھ لوڈ کر سکتے ہیں۔ load_dataset()
کمانڈ. یہ کال Hugging Face GitHub ریپوزٹری سے PAWS Python پروسیسنگ اسکرپٹ کو ڈاؤن لوڈ اور درآمد کرتی ہے، جو اس کے بعد اسکرپٹ میں محفوظ اصل URL سے PAWS ڈیٹاسیٹ کو ڈاؤن لوڈ کرتی ہے اور ڈیٹا کو ڈرائیو پر ایرو ٹیبل کے بطور کیش کرتی ہے۔ درج ذیل کوڈ دیکھیں:
اس سے پہلے کہ ہم اپنے پہلے سے تربیت یافتہ BERT ماڈل کو ٹھیک کرنا شروع کریں، آئیے اپنی ٹارگٹ کلاس ڈسٹری بیوشن کو دیکھیں۔ ہمارے استعمال کے معاملے کے لیے، PAWS ڈیٹاسیٹ میں بائنری لیبلز ہیں (0 اشارہ کرتا ہے کہ جملے کا جوڑا پیرا فریز نہیں ہے، اور 1 اشارہ کرتا ہے کہ یہ ہے)۔ آئیے کلاس کی تقسیم کو دیکھنے کے لیے ایک کالم چارٹ بنائیں، جیسا کہ درج ذیل کوڈ میں دکھایا گیا ہے۔ ہم دیکھتے ہیں کہ ہمارے تربیتی سیٹ میں ایک معمولی طبقاتی عدم توازن کا مسئلہ ہے (56% منفی نمونے بمقابلہ 44% مثبت نمونے)۔ تاہم، عدم توازن اتنا چھوٹا ہے کہ طبقاتی عدم توازن کو کم کرنے کی تکنیکوں کو استعمال کرنے سے گریز کیا جائے۔
ڈیٹاسیٹ کو ٹوکنائز کریں۔
اس سے پہلے کہ ہم فائن ٹیوننگ شروع کر سکیں، ہمیں اپنے ڈیٹاسیٹ کو ٹوکنائز کرنے کی ضرورت ہے۔ ایک نقطہ آغاز کے طور پر، ہم کہتے ہیں کہ ہم ٹھیک ٹیون کرنا چاہتے ہیں اور اس کا اندازہ لگانا چاہتے ہیں۔ roberta-base
ٹرانسفارمر ہم نے منتخب کیا۔ roberta-base
کیونکہ یہ ایک عام مقصد کا ٹرانسفارمر ہے جو انگریزی ڈیٹا کے ایک بڑے کارپس پر پہلے سے تربیت یافتہ تھا اور اس نے اکثر NLP کاموں کی ایک قسم پر اعلیٰ کارکردگی دکھائی ہے۔ ماڈل اصل میں کاغذ میں متعارف کرایا گیا تھا RoBERTA: ایک مضبوط طریقے سے بہتر بنایا گیا BERT پری ٹریننگ اپروچ.
ہم جملوں پر a کے ساتھ ٹوکنائزیشن کرتے ہیں۔ roberta-base
ہگنگ فیس سے ٹوکنائزر، جو دستاویز کو ٹوکن میں تقسیم کرنے کے لیے بائٹ لیول بائٹ پیئر انکوڈنگ کا استعمال کرتا ہے۔ RoBERTa ٹوکنائزر کے بارے میں مزید تفصیلات کے لیے، رجوع کریں۔ رابرٹا ٹوکنائزر. چونکہ ہمارے ان پٹ جملے کے جوڑے ہیں، ہمیں دونوں جملوں کو بیک وقت ٹوکنائز کرنے کی ضرورت ہے۔ چونکہ زیادہ تر BERT ماڈلز کو ایک مقررہ ٹوکنائزڈ ان پٹ کی لمبائی کے لیے ان پٹ کی ضرورت ہوتی ہے، اس لیے ہم درج ذیل پیرامیٹرز مرتب کرتے ہیں: max_len=128
اور truncation=True
. درج ذیل کوڈ دیکھیں:
ہمارے BERT ماڈل کو ٹھیک کرنے کے لیے آخری پری پروسیسنگ مرحلہ ٹوکنائزڈ ٹرین اور تصدیقی ڈیٹا سیٹس کو PyTorch ٹینسر میں تبدیل کرنا اور انہیں ہماری S3 بالٹی میں اپ لوڈ کرنا ہے۔
ماڈل کو ٹھیک بنائیں
اب جبکہ ہم نے ڈیٹا کی تیاری مکمل کر لی ہے، ہم اپنے پہلے سے تربیت یافتہ کو ٹھیک کرنے کے لیے تیار ہیں۔ roberta-base
پیرا فریس شناختی کام پر ماڈل۔ ہم دو مراحل میں فائن ٹیوننگ کے عمل کو شروع کرنے کے لیے SageMaker Hugging Face Estimator کلاس کا استعمال کر سکتے ہیں۔ پہلا مرحلہ تربیت کے ہائپرپیرامیٹر اور میٹرک تعریفوں کی وضاحت کرنا ہے۔ میٹرک ڈیفینیشنز متغیر ہگنگ فیس اسٹیمیٹر کو بتاتا ہے کہ ماڈل کے ٹریننگ لاگز سے کس قسم کے میٹرکس نکالے جائیں۔ یہاں، ہم بنیادی طور پر ہر تربیتی دور میں توثیق کے سیٹ میٹرکس کو نکالنے میں دلچسپی رکھتے ہیں۔
دوسرا مرحلہ یہ ہے کہ گلے لگنے والے چہرے کا تخمینہ لگانا اور اس کے ساتھ ٹھیک ٹیوننگ کا عمل شروع کرنا۔ .fit()
طریقہ:
مخصوص ہائپرپیرامیٹرس کا استعمال کرتے ہوئے فائن ٹیوننگ کے عمل میں تقریباً 30 منٹ لگتے ہیں۔
ماڈل کو تعینات کریں اور اندازہ لگائیں۔
سیج میکر آپ کے استعمال کے معاملے کے لحاظ سے متعدد تعیناتی کے اختیارات پیش کرتا ہے۔ مستقل، ریئل ٹائم اینڈ پوائنٹس کے لیے جو ایک وقت میں ایک پیشین گوئی کرتے ہیں، ہم استعمال کرنے کی تجویز کرتے ہیں۔ سیج میکر ریئل ٹائم ہوسٹنگ سروسز. اگر آپ کے پاس کام کا بوجھ ہے جس میں ٹریفک کی تیز رفتاری کے درمیان وقفہ وقفہ ہوتا ہے اور وہ سردی کے آغاز کو برداشت کر سکتے ہیں، تو ہم استعمال کرنے کی تجویز کرتے ہیں سرور کے بغیر اندازہ. سرور لیس اینڈ پوائنٹس خود بخود کمپیوٹ وسائل کو لانچ کرتے ہیں اور ٹریفک کے لحاظ سے ان کو اندر اور باہر پیمانہ کرتے ہیں، مثال کی قسموں کو منتخب کرنے یا اسکیلنگ کی پالیسیوں کو منظم کرنے کی ضرورت کو ختم کرتے ہیں۔ ہم یہ ظاہر کرتے ہیں کہ اپنے فائن ٹیونڈ ہیگنگ فیس ماڈل کو ریئل ٹائم انفرنس اینڈ پوائنٹ اور سرور لیس انفرنس اینڈ پوائنٹ دونوں پر کیسے تعینات کیا جائے۔
ریئل ٹائم انفرنس اینڈ پوائنٹ پر تعینات کریں۔
آپ سیج میکر کے اندر ریئل ٹائم انفرنس ہوسٹنگ پر ٹریننگ آبجیکٹ تعینات کر سکتے ہیں۔ .deploy()
طریقہ قبول شدہ پیرامیٹرز کی مکمل فہرست کے لیے، رجوع کریں۔ گلے ملتے ہوئے چہرے کا ماڈل. شروع کرنے کے لیے، آئیے مندرجہ ذیل پیرامیٹرز کو پاس کر کے ماڈل کو ایک مثال میں تعینات کریں: initial_instance_count
, instance_type
، اور endpoint_name
. درج ذیل کوڈ دیکھیں:
ماڈل کو تعینات کرنے میں چند منٹ لگتے ہیں۔ ماڈل کے تعینات ہونے کے بعد، ہم ان دیکھے ٹیسٹ ڈیٹاسیٹ سے نمونے کے ریکارڈ کو اندازہ کے لیے اختتامی نقطہ پر جمع کر سکتے ہیں۔
سرور لیس انفرنس اینڈ پوائنٹ پر تعینات کریں۔
اپنے ٹریننگ آبجیکٹ کو سرور لیس اینڈ پوائنٹ پر تعینات کرنے کے لیے، ہمیں پہلے سرور لیس کنفگ فائل کی وضاحت کرنی ہوگی۔ memory_size_in_mb
اور max_concurrency
دلائل:
memory_size_in_mb
آپ کے سرور لیس اینڈ پوائنٹ کے کل RAM سائز کی وضاحت کرتا ہے۔ کم سے کم RAM کا سائز 1024 MB (1 GB) ہے اور یہ 6144 MB (6 GB) تک پیمانہ ہو سکتا ہے۔ عام طور پر، آپ کو میموری کا سائز منتخب کرنا چاہیے جو کم از کم آپ کے ماڈل کے سائز جتنا بڑا ہو۔ max_concurrency
کوٹہ کی وضاحت کرتا ہے کہ ایک ہی اختتامی نقطہ کے لیے ایک ہی وقت میں کتنی ہم آہنگی کی درخواستوں پر کارروائی کی جا سکتی ہے۔
ہمیں Hugging Face inference image URI فراہم کرنے کی بھی ضرورت ہے، جسے آپ درج ذیل کوڈ کا استعمال کرکے بازیافت کرسکتے ہیں۔
اب جب کہ ہمارے پاس سرور لیس کنفگ فائل ہے، ہم اپنے ریئل ٹائم انفرنس اینڈ پوائنٹ کی طرح سرور لیس اینڈ پوائنٹ بنا سکتے ہیں۔ .deploy()
طریقہ:
اختتامی نقطہ چند منٹوں میں بننا چاہیے۔
ماڈل کا اندازہ لگائیں۔
پیشین گوئیاں کرنے کے لیے، ہمیں شامل کرکے جملے کا جوڑا بنانا ہوگا۔ [CLS]
اور [SEP]
خصوصی ٹوکن اور بعد میں ان پٹ کو ماڈل اینڈ پوائنٹس پر جمع کروائیں۔ ریئل ٹائم انفرنس اور سرور لیس انفرنس کا نحو ایک جیسا ہے:
مندرجہ ذیل مثالوں میں، ہم دیکھ سکتے ہیں کہ ماڈل صحیح طریقے سے درجہ بندی کرنے کے قابل ہے کہ آیا ان پٹ جملے کے جوڑے میں پیرافراسڈ جملے ہیں۔
مندرجہ ذیل ایک حقیقی وقت کا اندازہ مثال ہے.
مندرجہ ذیل ایک سرور لیس انفرنس مثال ہے۔
ماڈل کی کارکردگی کا اندازہ کریں۔
ماڈل کا جائزہ لینے کے لیے، آئیے پچھلے کوڈ کو بڑھاتے ہیں اور تمام 8,000 غیر دیکھے ہوئے ٹیسٹ ریکارڈز کو ریئل ٹائم اینڈ پوائنٹ پر جمع کراتے ہیں:
اگلا، ہم نکالی گئی پیشین گوئیوں کا استعمال کرتے ہوئے درجہ بندی کی رپورٹ بنا سکتے ہیں:
ہمیں درج ذیل ٹیسٹ اسکور ملتے ہیں۔
ہم اس کا مشاہدہ کر سکتے ہیں۔ roberta-base
اس کا مشترکہ میکرو-ایوریج F1 سکور 92% ہے اور جملے کا پتہ لگانے میں قدرے بہتر کارکردگی کا مظاہرہ کرتا ہے جو پیرا فریسز ہیں۔ دی roberta-base
ماڈل اچھی کارکردگی کا مظاہرہ کرتا ہے، لیکن کم از کم ایک دوسرے ماڈل کا استعمال کرتے ہوئے ماڈل کی کارکردگی کا حساب لگانا اچھا عمل ہے۔
مندرجہ ذیل ٹیبل کا موازنہ roberta-base
اسی ٹیسٹ پر کارکردگی کے نتائج ایک اور فائن ٹیونڈ ٹرانسفارمر کے خلاف سیٹ کیے جاتے ہیں۔ paraphrase-mpnet-base-v2
ایک جملہ ٹرانسفارمر جو خاص طور پر پیرا فریز کی شناخت کے کام کے لیے پہلے سے تربیت یافتہ ہے۔ دونوں ماڈلز کو ml.p3.8xlarge مثال پر تربیت دی گئی تھی۔
نتائج یہ ظاہر کرتے ہیں۔ roberta-base
SageMaker پر ریئل ٹائم انفرنس ہوسٹنگ کا استعمال کرتے ہوئے بہت ہی ملتی جلتی تربیت اور تخمینہ اوقات کے ساتھ 1% زیادہ F1 سکور ہے۔ ماڈلز کے درمیان کارکردگی کا فرق نسبتاً معمولی ہے، تاہم، roberta-base
آخر کار فاتح ہے کیونکہ اس کے پاس معمولی طور پر بہتر کارکردگی کے میٹرکس اور تقریباً ایک جیسی تربیت اور تخمینہ کے اوقات ہیں۔
صحت سے متعلق | یاد رکھیں | F1 سکور | تربیت کا وقت (بل) | انفرنس ٹائم (مکمل ٹیسٹ سیٹ) | |
رابرٹا بیس | 0.92 | 0.93 | 0.92 | 18 منٹ | 2 منٹ |
پیرا فریز-mpnet- base-v2 |
0.92 | 0.91 | 0.91 | 17 منٹ | 2 منٹ |
صاف کرو
جب آپ ماڈل اینڈ پوائنٹس کا استعمال کر لیں، تو آپ مستقبل کے چارجز سے بچنے کے لیے انہیں حذف کر سکتے ہیں:
نتیجہ
اس پوسٹ میں، ہم نے سیج میکر پر ہیگنگ فیس ٹرانسفارمرز کا استعمال کرتے ہوئے پیرا فریز شناختی ماڈل کو تیزی سے بنانے کے طریقہ پر تبادلہ خیال کیا۔ ہم نے پہلے سے تربیت یافتہ دو ٹرانسفارمرز کو ٹھیک کیا، roberta-base
اور paraphrase-mpnet-base-v2
PAWS ڈیٹاسیٹ کا استعمال کرتے ہوئے (جس میں جملے کے جوڑے اعلی لغوی اوورلیپ کے ساتھ ہوتے ہیں)۔ ہم نے ریئل ٹائم انفرنس بمقابلہ سرور لیس انفرنس تعیناتی کے فوائد کا مظاہرہ کیا اور ان پر تبادلہ خیال کیا، بعد ازاں ایک نئی خصوصیت ہے جو تیز کام کے بوجھ کو نشانہ بناتی ہے اور اسکیلنگ پالیسیوں کو منظم کرنے کی ضرورت کو ختم کرتی ہے۔ 8,000 ریکارڈز کے ساتھ ایک غیر دیکھے ہوئے ٹیسٹ سیٹ پر، ہم نے یہ ظاہر کیا کہ دونوں ماڈلز نے F1 سکور 90% سے زیادہ حاصل کیا۔
اس حل کو بڑھانے کے لیے، درج ذیل پر غور کریں:
- اپنے حسب ضرورت ڈیٹاسیٹ کے ساتھ فائن ٹیوننگ کی کوشش کریں۔ اگر آپ کے پاس کافی تربیتی لیبل نہیں ہیں، تو آپ ایک عمدہ جانچ والے ماڈل کی کارکردگی کا اندازہ لگا سکتے ہیں جیسا کہ ایک حسب ضرورت ٹیسٹ ڈیٹاسیٹ پر اس پوسٹ میں دکھایا گیا ہے۔
- اس عمدہ ماڈل کو ایک نیچے کی دھارے والی ایپلی کیشن میں ضم کریں جس میں اس بارے میں معلومات درکار ہوں کہ آیا دو جملے (یا متن کے بلاکس) ایک دوسرے کے پیرا فریسز ہیں۔
خوش عمارت!
مصنفین کے بارے میں
بالا کرشنا مورتی AWS پروفیشنل سروسز کے ساتھ ڈیٹا سائنٹسٹ ہے، جہاں وہ کسٹمر کے کاروباری مسائل کو حل کرنے کے لیے مشین لرننگ کا اطلاق کرنے سے لطف اندوز ہوتا ہے۔ وہ قدرتی زبان کی پروسیسنگ کے استعمال کے معاملات میں مہارت رکھتا ہے اور اس نے سافٹ ویئر، فنانس اور ہیلتھ کیئر جیسی صنعتوں میں صارفین کے ساتھ کام کیا ہے۔ اپنے فارغ وقت میں، وہ نیا کھانا آزمانے، کامیڈی اور دستاویزی فلمیں دیکھنے، اورنج تھیوری میں کام کرنے، اور پانی پر نکلنے (پیڈل بورڈنگ، سنورکلنگ اور امید ہے کہ جلد ہی غوطہ خوری) سے لطف اندوز ہوتا ہے۔
ایوان کیوئی AWS پروفیشنل سروسز کے ساتھ ڈیٹا سائنٹسٹ ہے، جہاں وہ AWS پر مشین لرننگ کا استعمال کرتے ہوئے حل بنانے اور تعینات کرنے میں صارفین کی مدد کرتا ہے۔ اس نے سافٹ ویئر، فنانس، فارماسیوٹیکل، اور صحت کی دیکھ بھال سمیت متنوع صنعتوں میں صارفین کے ساتھ کام کیا ہے۔ اپنے فارغ وقت میں، وہ پڑھنے، اپنے خاندان کے ساتھ وقت گزارنے، اور اپنے اسٹاک پورٹ فولیو کو زیادہ سے زیادہ کرنے سے لطف اندوز ہوتا ہے۔
- '
- "
- 000
- 10
- 100
- 2019
- 2022
- 84
- ہمارے بارے میں
- تک رسائی حاصل
- اکاؤنٹ
- حاصل کیا
- کے پار
- تمام
- پہلے ہی
- ایمیزون
- کا اعلان کیا ہے
- ایک اور
- درخواست
- درخواست دینا
- تقریبا
- دلائل
- دستیاب
- AWS
- کیا جا رہا ہے
- فوائد
- جسم
- سرحد
- تعمیر
- کاروبار
- فون
- صلاحیت رکھتا
- کاریں
- مقدمات
- بوجھ
- میں سے انتخاب کریں
- شہر
- طبقے
- درجہ بندی
- کوڈ
- کالم
- مل کر
- کمیونٹی
- مکمل طور پر
- کمپیوٹنگ
- آپکا اعتماد
- کنٹینر
- پر مشتمل ہے
- سکتا ہے
- تخلیق
- بنائی
- اپنی مرضی کے
- گاہک
- گاہکوں
- اعداد و شمار
- ڈیٹا سائنسدان
- مظاہرہ
- demonstrated,en
- منحصر ہے
- تعیناتی
- تعینات
- تعیناتی
- تفصیلات
- کھوج
- ترقی
- مختلف
- تقسیم
- دستاویزی
- دستاویزات
- ڈاؤن لوڈز
- ڈرائیو
- ہنر
- اختتام پوائنٹ
- انگریزی
- ماحولیات
- قائم کرو
- اندازہ
- مثال کے طور پر
- نمائش
- توسیع
- چہرہ
- خاندان
- نمایاں کریں
- کی مالی اعانت
- پہلا
- پرواز
- توجہ مرکوز
- پر عمل کریں
- کے بعد
- کھانا
- مفت
- مکمل
- تقریب
- فعالیت
- مستقبل
- عام مقصد
- عام طور پر
- پیدا
- GitHub کے
- اچھا
- زیادہ سے زیادہ
- صحت کی دیکھ بھال
- اونچائی
- مدد کرتا ہے
- یہاں
- ہائی
- اعلی
- ہوسٹنگ
- کس طرح
- کیسے
- HTTPS
- شناخت
- شناخت
- کی نشاندہی
- شناختی
- تصویر
- شامل
- سمیت
- صنعتوں
- معلومات
- ان پٹ
- انسٹال
- دلچسپی
- مسئلہ
- IT
- نوکریاں
- لیبل
- زبان
- بڑے
- شروع
- سیکھنے
- لائبریری
- لسٹ
- لوڈ
- مشین
- مشین لرننگ
- بناتا ہے
- انتظام
- یاد داشت
- پیمائش کا معیار
- ML
- ماڈل
- ماڈل
- زیادہ
- سب سے زیادہ
- ایک سے زیادہ
- قدرتی
- منفی
- NY
- نیو یارک شہر
- نوٹ بک
- تجویز
- اصلاح
- آپشنز کے بھی
- حکم
- دیگر
- خود
- کاغذ.
- پیرس
- شراکت داری
- پاسنگ
- پیچ
- کارکردگی
- ادوار
- دواسازی کی
- پوائنٹ
- پالیسیاں
- پورٹ فولیو
- مثبت
- پریکٹس
- کی پیشن گوئی
- پیشن گوئی
- مسائل
- عمل
- پروسیسنگ
- پیشہ ورانہ
- فراہم
- سوال
- Quora کا
- RAM
- رینڈ
- پڑھنا
- اصل وقت
- سفارش
- ریکارڈ
- جاری
- رپورٹ
- ذخیرہ
- کی ضرورت
- وسائل
- وسائل
- نتائج کی نمائش
- واپسی
- رن
- چل رہا ہے
- پیمانے
- سکیلنگ
- سائنسدان
- سیکورٹی
- منتخب
- بے سرور
- سروسز
- مقرر
- قائم کرنے
- اسی طرح
- سادہ
- سائز
- چھوٹے
- سافٹ ویئر کی
- ٹھوس
- حل
- حل
- حل
- خصوصی
- مہارت دیتا ہے
- خاص طور پر
- خرچ کرنا۔
- سپن
- تقسیم
- شروع کریں
- شروع
- شروع ہوتا ہے
- اسٹاک
- ذخیرہ
- ذخیرہ
- بعد میں
- فراہمی
- سویڈن
- کے نظام
- ہدف
- کاموں
- تکنیک
- بتاتا ہے
- ٹیسٹ
- کے ذریعے
- وقت
- ٹوکن بنانا
- ٹوکن
- ٹوکن
- سب سے اوپر
- مشعل
- ٹریفک
- ٹریننگ
- ترجمہ
- us
- استعمال کی شرائط
- توثیق
- قیمت
- مختلف اقسام کے
- لنک
- پانی
- کیا
- چاہے
- وکیپیڈیا
- کے اندر
- بغیر
- الفاظ
- کام کیا
- کام کر
- حل کرنا