ThirdAI اور AWS Graviton کے ساتھ CPUs پر بڑے پیمانے پر نیورل نیٹ ورک کی تربیت کو تیز کرنا | ایمیزون ویب سروسز

ThirdAI اور AWS Graviton کے ساتھ CPUs پر بڑے پیمانے پر نیورل نیٹ ورک کی تربیت کو تیز کرنا | ایمیزون ویب سروسز

یہ مہمان پوسٹ تھرڈ اے آئی سے ویہان لکشمن، تھرون میڈینی اور انشومالی شریواستو نے لکھی ہے۔

بڑے پیمانے پر گہری تعلیم نے حال ہی میں وسیع میدانوں میں انقلابی پیشرفت کی ہے۔ اگرچہ مصنوعی ذہانت میں یہ شاندار پیش رفت قابل ذکر ہے، لیکن ان ماڈلز کی تربیت کے لیے درکار مالی اخراجات اور توانائی کی کھپت GPUs جیسے خصوصی ہارڈ ویئر کی ضرورت کی وجہ سے ایک اہم رکاوٹ کے طور پر ابھری ہے۔ روایتی طور پر، معمولی سائز کے نیورل ماڈلز کو بھی تربیت کے لیے مہنگے ہارڈ ویئر ایکسلریٹر کی ضرورت ہوتی ہے، جو اس ٹیکنالوجی سے بھرپور فائدہ اٹھانے کے لیے مالی وسائل کے ساتھ تنظیموں کی تعداد کو محدود کرتی ہے۔

2021 میں قائم کیا گیا، ThirdAI Corp. ایک سٹارٹ اپ ہے جو الگورتھم اور سافٹ ویئر ایجادات کے ذریعے مصنوعی ذہانت کی ٹیکنالوجیز کو جمہوری بنانے کے مشن کے لیے وقف ہے جو گہری سیکھنے کی معاشیات کو بنیادی طور پر تبدیل کرتی ہے۔ ہم نے ایک ویرل ڈیپ لرننگ انجن تیار کیا ہے، جسے کہا جاتا ہے۔ بولو، جو خاص طور پر معیاری CPU ہارڈویئر پر ماڈلز کی تربیت اور تعیناتی کے لیے ڈیزائن کیا گیا ہے جیسا کہ GPUs جیسے مہنگے اور توانائی سے بھرپور ایکسلریٹر کے برخلاف ہے۔ ہمارے بہت سے صارفین کے پاس ہے۔ مضبوط اطمینان کی اطلاع دی تھرڈ اے آئی کی سرمایہ کاری مؤثر CPU انفراسٹرکچر پر اہم کاروباری مسائل کے لیے گہرے سیکھنے کے ماڈلز کی تربیت اور تعیناتی کی صلاحیت کے ساتھ۔

اس پوسٹ میں، ہم تھرڈ اے آئی کے منفرد سی پی یو پر مبنی ڈیپ لرننگ انجن کے لیے نیورل نیٹ ورک ٹریننگ کو تیز کرنے کے لیے AWS Graviton3 پروسیسر کے امکانات کی چھان بین کرتے ہیں۔

اعلی کارکردگی والے CPUs کے فوائد

تھرڈ اے آئی میں، ہم ملکیتی ڈائنامک اسپارس الگورتھم کے ذریعے CPUs پر موثر نیورل نیٹ ورک ٹریننگ میں یہ کامیابیاں حاصل کرتے ہیں جو کسی دیے گئے ان پٹ کے لیے نیوران کے صرف ایک ذیلی سیٹ کو چالو کرتے ہیں (مندرجہ ذیل تصویر دیکھیں)، اس طرح مکمل گھنے کمپیوٹیشن کی ضرورت کو ایک طرف بڑھاتے ہیں۔ ویرل نیورل نیٹ ورک کی تربیت کے دوسرے طریقوں کے برعکس، تھرڈ اے آئی استعمال کرتا ہے۔ مقامی طور پر حساس ہیشنگ کسی دیے گئے ان پٹ کے لیے نیوران کو متحرک طور پر منتخب کرنے کے لیے جیسا کہ نیچے بولڈ لائنوں میں دکھایا گیا ہے۔ بعض صورتوں میں، ہم نے یہاں تک مشاہدہ کیا ہے کہ ہمارے ویرل CPU پر مبنی ماڈلز GPUs پر تقابلی گھنے فن تعمیر سے تیز ٹرین۔

گھنے نیورل فن تعمیر جس میں بولڈ لکیریں یہ ظاہر کرتی ہیں کہ کون سے نیوران منتخب کیے گئے ہیں۔

یہ دیکھتے ہوئے کہ ہمارے بہت سے ٹارگٹ گاہک کلاؤڈ میں کام کرتے ہیں — اور ان میں سے، اکثریت AWS کا استعمال کرتی ہے — ہم AWS Graviton3 پروسیسر کو آزمانے کے لیے پرجوش تھے کہ آیا Amazon کی سلکان جدت کی متاثر کن قیمت کی کارکردگی میں بہتری ہمارے منفرد کام کے بوجھ کا ترجمہ کرے گی۔ ویرل نیورل نیٹ ورک کی تربیت اور اس طرح صارفین کے لیے مزید بچت فراہم کرتا ہے۔ اگرچہ ریسرچ کمیونٹی اور AWS Graviton ٹیم دونوں نے تیز رفتاری میں دلچسپ پیش رفت کی ہے۔ اعصابی نیٹ ورک کا اندازہ CPU مثالوں پر، ہم ThirdAI میں، ہمارے علم کے مطابق، سنجیدگی سے مطالعہ کرنے والے پہلے فرد ہیں کہ CPUs پر نیورل ماڈلز کو کس طرح موثر طریقے سے تربیت دی جائے۔

جیسا کہ ہمارے نتائج میں دکھایا گیا ہے، ہم نے AWS Graviton3 کے ساتھ متعدد نمائندہ ماڈلنگ کام کے بوجھ پر تقابلی انٹیل اور NVIDIA مثالوں پر تربیت کی ایک اہم رفتار کا مشاہدہ کیا۔

مثال کی اقسام۔

اپنی تشخیص کے لیے، ہم نے AWS CPU کی دو تقابلی مثالوں پر غور کیا: ایک c6i.8xlarge مشین جو Intel کے Ice Lake پروسیسر سے چلتی ہے اور a c7g.8xlarge AWS Graviton3 سے چلتی ہے۔ مندرجہ ذیل جدول ہر ایک مثال کی تفصیلات کا خلاصہ کرتا ہے۔

مثال وی سی پی یو رام (جی بی) پروسیسر آن ڈیمانڈ قیمت (US-east-1)
c7g.8xlarge 32 64 AWS Graviton3 $ 1.1562 / گھنٹہ
c6i.8xlarge 32 64 انٹیل آئس لیک $ 1.36 / گھنٹہ
g5g.8xlarge (GPU) 32 64 GB GPU میموری کے ساتھ 16 AWS Graviton2 پروسیسرز 1 NVIDIA T4G GPU کے ساتھ $ 1.3720 / گھنٹہ

تشخیص 1: انتہائی درجہ بندی

اپنی پہلی تشخیص کے لیے، ہم انتہائی ملٹی لیبل کی درجہ بندی (XMC) کے مسئلے پر توجہ مرکوز کرتے ہیں، جو ایک تیزی سے مقبول مشین لرننگ (ML) نمونہ ہے جس میں تلاش اور سفارشات میں متعدد عملی ایپلی کیشنز شامل ہیں (بشمول ایمیزون)۔ ہماری تشخیص کے لیے، ہم عوام پر توجہ مرکوز کرتے ہیں۔ Amazon-670K پروڈکٹ کی سفارش کا کام، جو، ایک ان پٹ پروڈکٹ کو دیا جاتا ہے، 670,000 سے زیادہ اشیاء کے مجموعے سے ملتی جلتی مصنوعات کی شناخت کرتا ہے۔

اس تجربے میں، ہم نے تھرڈ اے آئی کے BOLT انجن کو TensorFlow 2.11 اور PyTorch 2.0 کے خلاف مندرجہ بالا ہارڈ ویئر کے انتخاب پر بینچ مارک کیا: Intel Ice Lake، AWS Graviton3، اور NVIDIA T4G GPU۔ Intel اور AWS Graviton پر اپنے تجربات کے لیے، ہم AWS Deep Learning AMI (Ubuntu 18.04) ورژن 59.0 استعمال کرتے ہیں۔ ہمارے GPU کی تشخیص کے لیے، ہم استعمال کرتے ہیں۔ NVIDIA GPU-آپٹمائزڈ Arm64 AMIAWS مارکیٹ پلیس کے ذریعے دستیاب ہے۔ اس تشخیص کے لیے، ہم استعمال کرتے ہیں۔ سلائیڈ ماڈل فن تعمیر، جو اس انتہائی درجہ بندی کے کام پر مسابقتی کارکردگی اور CPUs پر مضبوط تربیتی کارکردگی دونوں کو حاصل کرتا ہے۔ ہمارے TensorFlow اور PyTorch موازنہ کے لیے، ہم SLIDE ملٹی لیئر پرسیپٹرون (MLP) فن تعمیر کے یکساں ورژن کو گھنے میٹرکس ضرب کے ساتھ نافذ کرتے ہیں۔ ہم ہر ماڈل کو 256 کے مقررہ بیچ سائز اور 0.001 کے سیکھنے کی شرح کے ساتھ پانچ دوروں (ٹریننگ ڈیٹاسیٹ سے مکمل گزرتے ہیں) کے لیے تربیت دیتے ہیں۔ ہم نے مشاہدہ کیا کہ تمام ماڈلز نے 33.6% کی یکساں ٹیسٹ درستگی حاصل کی۔

مندرجہ ذیل چارٹ Amazon2.11k انتہائی درجہ بندی کے بینچ مارک پر ThirdAI کے BOLT کے تربیتی وقت کا TensorFlow 2.0 اور PyTorch 670 سے موازنہ کرتا ہے۔ تمام ماڈلز ایک ہی ٹیسٹ کی درستگی حاصل کرتے ہیں۔ ہم مشاہدہ کرتے ہیں کہ AWS Graviton3 BOLT کی کارکردگی کو باکس سے باہر کر دیتا ہے بغیر کسی تخصیص کے - تقریباً 40% تک۔ AWS Graviton3 پر ThirdAI کا BOLT بھی GPU پر تربیت یافتہ TensorFlow یا PyTorch ماڈلز کے مقابلے میں کافی تیز تربیت حاصل کرتا ہے۔ نوٹ کریں کہ NVIDIA GPU بینچ مارک پر کوئی ThirdAI نتیجہ نہیں ہے کیونکہ BOLT کو CPUs پر چلانے کے لیے ڈیزائن کیا گیا ہے۔ ہم TensorFlow اور PyTorch CPU بینچ مارکس کو شامل نہیں کرتے ہیں کیونکہ ممنوعہ طور پر طویل تربیتی وقت ہے۔

Amazon 670k ٹریننگ ٹائم بار چارٹ مثالوں کا موازنہ کرنے والا c6i.8xlarge vs c7g.8xlarge

مندرجہ ذیل جدول ہر پروسیسر/خصوصی پروسیسر (GPU) کے لیے تربیت کے وقت اور ٹیسٹ کی درستگی کا خلاصہ کرتا ہے۔

پروسیسر انجن تربیت کا وقت ٹیسٹ کی درستگی
Intel Ice Lake (c6i.8xlarge) بولو 1470 33.6
AWS Graviton3 (c7g.8xlarge) بولو 935 33.6
NVIDIA T4G (g5g.8xlarge) TensorFlow 7550 33.6
NVIDIA T4G (g5g.8xlarge) پی ٹورچ 5130 33.6

تشخیص 2: ییلپ پولرٹی جذباتی تجزیہ

ہماری دوسری تشخیص کے لیے، ہم مقبول پر توجہ مرکوز کرتے ہیں۔ Yelp Polarity جذباتی تجزیہ بینچ مارک، جس میں جائزے کو مثبت یا منفی کے طور پر درجہ بندی کرنا شامل ہے۔ اس تشخیص کے لیے، ہم ThirdAI کا موازنہ کرتے ہیں۔ یونیورسل ڈیپ ٹرانسفارمرز (UDT) ایک ٹھیک ٹیون کے خلاف ماڈل ڈسٹل برٹ نیٹ ورک، ایک کمپریسڈ پہلے سے تربیت یافتہ لینگویج ماڈل جو کم قیاس میں تاخیر کے ساتھ جدید ترین کارکردگی کو حاصل کرتا ہے۔ چونکہ CPU پر ڈسٹل برٹ ماڈلز کو ٹھیک کرنے میں ممنوعہ طور پر طویل وقت لگتا ہے (کم از کم کئی دن)، ہم تھرڈ اے آئی کے سی پی یو پر مبنی ماڈلز کو GPU پر ڈسٹل برٹ فائن ٹیون کے مقابلے میں بینچ مارک کرتے ہیں۔ ہم تمام ماڈلز کو 256 کے بیچ سائز والے ڈیٹا (ایک دور) کے ذریعے ایک ہی پاس کے لیے تربیت دیتے ہیں۔ ہم نوٹ کرتے ہیں کہ ہم ڈیٹا کے ذریعے اضافی پاسز کے ساتھ BOLT کے ساتھ قدرے زیادہ درستگی حاصل کر سکتے ہیں، لیکن ہم مستقل مزاجی کے لیے اس تشخیص میں خود کو ایک ہی پاس تک محدود رکھتے ہیں۔

جیسا کہ درج ذیل تصویر میں دکھایا گیا ہے، AWS Graviton3 پھر سے ThirdAI کی UDT ماڈل ٹریننگ کو کافی تیز کرتا ہے۔ مزید برآں، UDT تربیتی وقت کے ایک حصے کے ساتھ اور GPU کی ضرورت کے بغیر DistilBERT کے مقابلے کی جانچ کی درستگی حاصل کرنے کے قابل ہے۔ ہم نوٹ کرتے ہیں کہ اس میں حالیہ کام بھی ہوا ہے۔ ٹھیک ٹیوننگ کو بہتر بنانا CPUs پر Yelp Polarity کا۔ تاہم، ہمارے ماڈل اب بھی زیادہ کارکردگی کے فوائد حاصل کرتے ہیں اور پری ٹریننگ کی لاگت سے بچتے ہیں، جو کافی ہے اور اس کے لیے GPUs جیسے ہارڈویئر ایکسلریٹر کے استعمال کی ضرورت ہوتی ہے۔

Yelp Polarity C7g بمقابلہ c6i پر تربیت کا وقت

مندرجہ ذیل جدول تربیت کے وقت، ٹیسٹ کی درستگی، اور تخمینہ میں تاخیر کا خلاصہ کرتا ہے۔

پروسیسر انجن ماڈل تربیت کا وقت ٹیسٹ کی درستگی انفرنس لیٹینسی (ms)
Intel Icelake (c6i.8xlarge) بولو UDT 47 93.2 <1
Graviton3 (c7g.8xlarge) بولو UDT 29 92.9 <1
T4G GPU (g5g.8xlarge) TensorFlow ڈسٹل برٹ 4200 93.3 8.7
T4G GPU (g5g.8xlarge) پی ٹورچ ڈسٹل برٹ 3780 93.4 8.3

تشخیص 3: ملٹی کلاس ٹیکسٹ کی درجہ بندی (DBPedia)

اپنی حتمی تشخیص کے لیے، ہم کثیر طبقے کے متن کی درجہ بندی کے مسئلے پر توجہ مرکوز کرتے ہیں، جس میں دو سے زیادہ آؤٹ پٹ کلاسوں کے سیٹ سے کسی دیے گئے ان پٹ ٹیکسٹ پر لیبل تفویض کرنا شامل ہے۔ ہم پر توجہ مرکوز کرتے ہیں ڈی بی پیڈیا بینچ مارک، جو 14 ممکنہ آؤٹ پٹ کلاسز پر مشتمل ہے۔ ایک بار پھر، ہم دیکھتے ہیں کہ AWS Graviton3 تقریباً 40% تک موازنہ انٹیل مثال کے مقابلے میں UDT کارکردگی کو تیز کرتا ہے۔ ہم یہ بھی دیکھتے ہیں کہ BOLT سب ملی سیکنڈ لیٹینسی حاصل کرتے ہوئے GPU پر DistilBERT ٹرانسفارمر کی بنیاد پر فائن ٹیونڈ ماڈل کے مقابلے کے نتائج حاصل کرتا ہے۔

c7g بمقابلہ c6i پر تھرڈ اے آئی بولٹ ٹریننگ کا وقت

مندرجہ ذیل جدول تربیت کے وقت، ٹیسٹ کی درستگی، اور تخمینہ میں تاخیر کا خلاصہ کرتا ہے۔

پروسیسر انجن ماڈل تربیت کا وقت ٹیسٹ کی درستگی انفرنس لیٹینسی (ms)
Intel Icelake (c6i.8xlarge) بولو UDT 23 98.23 <1
Graviton3 (c7g.8xlarge) بولو UDT 14 98.10 <1
T4G GPU (g5g.8xlarge) TensorFlow ڈسٹل برٹ 4320 99.23 8.6
T4G GPU (g5g.8xlarge) پی ٹورچ ڈسٹل برٹ 3480 99.29 8

AWS Graviton پر ThirdAI کے ساتھ شروعات کریں۔

ہم نے اپنے BOLT سافٹ ویئر کو تمام بڑے CPU آرکیٹیکچرز بشمول AWS Graviton3 کے ساتھ مطابقت کے لیے ڈیزائن کیا ہے۔ درحقیقت، ہمیں AWS Graviton3 پر چلانے کے لیے اپنے کوڈ میں کوئی تخصیص کرنے کی ضرورت نہیں تھی۔ لہذا، آپ تھرڈ اے آئی کو بغیر کسی اضافی کوشش کے AWS Graviton3 پر ماڈل ٹریننگ اور تعیناتی کے لیے استعمال کر سکتے ہیں۔ اس کے علاوہ، جیسا کہ ہمارے حالیہ میں تفصیلی ہے۔ تحقیقی وائٹ پیپر، ہم نے اپنے اسپارس ماڈلز کے ساتھ منسلک خصوصی ہائپر پیرامیٹرس کو خود بخود ٹیون کرنے کے لیے ریاضی کی نئی تکنیکوں کا ایک سیٹ تیار کیا ہے، جس سے ہمارے ماڈلز کو فوری طور پر باکس سے باہر کام کرنے کی اجازت ملتی ہے۔

ہم یہ بھی نوٹ کرتے ہیں کہ ہمارے ماڈل بنیادی طور پر تلاش، سفارش، اور قدرتی زبان کی پروسیسنگ کے کاموں کے لیے اچھی طرح سے کام کرتے ہیں جن میں عام طور پر بڑی، اعلیٰ جہتی آؤٹ پٹ اسپیس اور انتہائی کم قیاس میں تاخیر کی ضرورت ہوتی ہے۔ ہم اپنے طریقوں کو اضافی ڈومینز، جیسے کہ کمپیوٹر ویژن تک بڑھانے کے لیے فعال طور پر کام کر رہے ہیں، لیکن آگاہ رہیں کہ ہماری کارکردگی میں بہتری اس وقت تمام ML ڈومینز میں ترجمہ نہیں کر رہی ہے۔

نتیجہ

اس پوسٹ میں، ہم نے تھرڈ اے آئی کے منفرد سی پی یو پر مبنی ڈیپ لرننگ انجن کے لیے نیورل نیٹ ورک کی تربیت کو تیز کرنے کے لیے AWS Graviton3 پروسیسر کی صلاحیت کی چھان بین کی۔ تلاش، متن کی درجہ بندی، اور سفارشات کے بینچ مارکس پر ہمارے معیارات بتاتے ہیں کہ AWS Graviton3 تقریباً 30% کی قیمت کی کارکردگی میں بہتری کے ساتھ موازنہ x40 مثالوں کے مقابلے میں ThirdAI کے ماڈل ٹریننگ ورک بوجھ کو 86-50% تک بڑھا سکتا ہے۔ مزید برآں، چونکہ AWS Graviton3 مثالیں یکساں انٹیل اور NVIDIA مشینوں کے مقابلے میں کم قیمت پر دستیاب ہیں اور مختصر تربیت اور تخمینہ کے اوقات کو قابل بناتی ہیں، آپ کم لاگت کا استعمال کرکے AWS کی ادائیگی کے طور پر استعمال کے ماڈل کی قدر کو مزید کھول سکتے ہیں۔ وقت کی مختصر مدت کے لئے مشینیں.

ہم AWS Graviton3 کی قیمت اور کارکردگی کی بچت سے بہت پرجوش ہیں اور ان بہتریوں کو اپنے صارفین تک پہنچانے کی کوشش کریں گے تاکہ وہ کم لاگت والے CPUs پر بہتر کارکردگی کے ساتھ تیز تر ML ٹریننگ اور اندازہ سے لطف اندوز ہو سکیں۔ خود AWS کے صارفین کے طور پر، ہم اس رفتار سے خوش ہیں جس سے AWS Graviton3 ہمیں اپنے ماڈلز کے ساتھ تجربہ کرنے کی اجازت دیتا ہے، اور ہم آگے بڑھتے ہوئے AWS سے مزید جدید سلکان اختراعات استعمال کرنے کے منتظر ہیں۔ گریویٹن ٹیکنیکل گائیڈ Graviton پر چلنے کے لیے اپنے ML ورک بوجھ کا جائزہ لیتے وقت غور کرنے کا ایک اچھا ذریعہ ہے۔ آپ Graviton t4g مثالیں بھی آزما سکتے ہیں۔ مفت جانچ.

اس پوسٹ میں مواد اور آراء تیسرے فریق کے مصنف کی ہیں اور AWS اس پوسٹ کے مواد یا درستگی کے لیے ذمہ دار نہیں ہے۔ بلاگ لکھنے کے وقت سب سے زیادہ موجودہ مثال c6i تھی اور اسی وجہ سے موازنہ c6i مثالوں سے کیا گیا تھا۔


مصنف کے بارے میں

ویہان لکشمن - ویہان لکشمن تھرڈ اے آئی کارپوریشن میں ایک تحقیقی سائنس دان ہے جس کی توجہ وسائل سے موثر گہری سیکھنے کے لیے نظام تیار کرنے پر مرکوز ہے۔ ThirdAI سے پہلے، اس نے Amazon میں ایک اپلائیڈ سائنٹسٹ کے طور پر کام کیا اور اسٹینفورڈ یونیورسٹی سے انڈرگریجویٹ اور ماسٹر کی ڈگریاں حاصل کیں۔ ویہان نیشنل سائنس فاؤنڈیشن ریسرچ فیلوشپ کا بھی وصول کنندہ ہے۔

تھرون مدینی - تھرون میڈینی تھرڈ اے آئی کارپوریشن کے شریک بانی اور سی ٹی او ہیں۔ انہوں نے رائس یونیورسٹی میں "ہیشنگ الگورتھم فار سرچ اینڈ انفارمیشن ریٹریول" میں پی ایچ ڈی کیا۔ تھرڈ اے آئی سے پہلے، تھرون ایمیزون اور ٹارگٹ پر کام کرتے تھے۔ تھرون اپنی تحقیق کے لیے متعدد ایوارڈز کے وصول کنندہ ہیں، جن میں کین کینیڈی انسٹی ٹیوٹ بی پی فیلوشپ، امریکن سوسائٹی آف انڈین انجینئرز اسکالرشپ، اور رائس یونیورسٹی گریجویٹ فیلوشپ شامل ہیں۔

انشومالی شریواستو - انشومالی شریواستو رائس یونیورسٹی میں کمپیوٹر سائنس ڈیپارٹمنٹ میں ایک ایسوسی ایٹ پروفیسر ہیں۔ وہ تھرڈ اے آئی کارپوریشن کے بانی اور سی ای او بھی ہیں، جو ایک ایسی کمپنی ہے جو سافٹ ویئر ایجادات کے ذریعے AI کو کموڈٹی ہارڈویئر میں جمہوری بنا رہی ہے۔ اس کی وسیع تحقیقی دلچسپیوں میں وسائل سے متعلق گہری سیکھنے کے لیے امکانی الگورتھم شامل ہیں۔ 2018 میں، سائنس کی خبروں نے اسے 10 سال سے کم عمر کے ٹاپ 40 سائنسدانوں میں سے ایک قرار دیا۔ وہ نیشنل سائنس فاؤنڈیشن کیریئر ایوارڈ، ایئر فورس آفس آف سائنٹیفک ریسرچ سے ینگ انویسٹی گیٹر ایوارڈ، ایمیزون سے مشین لرننگ ریسرچ ایوارڈ، اور ایڈوب سے ڈیٹا سائنس ریسرچ ایوارڈ کے وصول کنندہ ہیں۔ انہوں نے متعدد پیپر ایوارڈز جیتے ہیں، جن میں NIPS 2014 اور MLSys 2022 میں بہترین پیپر ایوارڈز کے ساتھ ساتھ SIGMOD 2019 میں سب سے زیادہ تولیدی کاغذ کا ایوارڈ بھی شامل ہے۔ CPUs پر موثر مشین لرننگ ٹیکنالوجیز پر ان کے کام کو مقبول پریس بشمول وال اسٹریٹ جرنل نے کور کیا ہے۔ نیو یارک ٹائمز، ٹیک کرنچ، این ڈی ٹی وی، وغیرہ۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ