AI کے ساتھ، آپ کو بڑے ہارڈ ویئر اور سافٹ ویئر کی تصویر PlatoBlockchain Data Intelligence دیکھنے کی ضرورت ہے۔ عمودی تلاش۔ عی

AI کے ساتھ، آپ کو بڑی ہارڈ ویئر اور سافٹ ویئر تصویر دیکھنے کی ضرورت ہے۔

اسپانسر شدہ خصوصیت ڈیڑھ دہائی ہو چکی ہے جب محققین نے یہ ظاہر کر کے ٹیک دنیا کو حیران کر دیا ہے کہ گرافیکل پروسیسنگ یونٹس کو ڈرامائی طور پر اہم AI آپریشنز کو تیز کرنے کے لیے استعمال کیا جا سکتا ہے۔

یہ احساس کاروباری اداروں کے تخیل کو اپنی گرفت میں لے رہا ہے۔ IDC نے اطلاع دی ہے کہ جب انفراسٹرکچر کی بات آتی ہے تو GPU ایکسلریٹڈ کمپیوٹ اور HPC جیسے سکیل اپ ٹیک لیڈرز اور آرکیٹیکٹس کے لیے سرفہرست ہیں جو اپنے AI انفراسٹرکچر کی تعمیر کے خواہاں ہیں۔

لیکن ان تمام تنظیموں کے لیے جنہوں نے حقیقی دنیا کے مسائل پر اے آئی کو کامیابی کے ساتھ لاگو کیا ہے، تجربات یا پائلٹ مرحلے سے آگے نکلنے کے لیے اور بھی بہت سی جدوجہد کرنا پڑتی ہے۔ IDC کی 2021 کی تحقیق پتا چلا کہ جواب دہندگان میں سے ایک تہائی سے بھی کم نے اپنے AI پروجیکٹس کو پروڈکشن میں منتقل کر دیا تھا، اور ان میں سے صرف ایک تہائی "پیداوار کے پختہ مرحلے" تک پہنچ چکے تھے۔

پیش کردہ رکاوٹوں میں ڈیٹا کی پروسیسنگ اور تیاری میں مسائل شامل ہیں اور انٹرپرائز پیمانے پر AI کو سپورٹ کرنے کے لیے انفراسٹرکچر کو بڑھانا شامل ہے۔ IDC نے کہا کہ کاروباری اداروں کو "مقصد سے تعمیر شدہ اور صحیح سائز کے بنیادی ڈھانچے" میں سرمایہ کاری کرنے کی ضرورت ہے۔

یہاں AI کا مسئلہ کیا ہے؟

تو وہ تنظیمیں AI کے ساتھ کہاں غلط ہو رہی ہیں؟ ایک عنصر یہ ہو سکتا ہے کہ ٹیک لیڈرز اور AI ماہرین وسیع تر AI پائپ لائن پر مکمل نظر ڈالنے میں ناکام ہو رہے ہیں جبکہ دوسرے کمپیوٹ انجنوں، خاص طور پر قابل احترام CPU کے مقابلے GPUs پر بہت زیادہ توجہ دیتے ہیں۔

کیونکہ آخر کار، یہ ASICs بمقابلہ GPUs بمقابلہ CPUs کی پشت پناہی کا سوال نہیں ہے۔ بلکہ، یہ ایک AI پائپ لائن کی تعمیر کا بہترین طریقہ تلاش کرنے کے بارے میں ہے جو آپ کو آئیڈیاز اور ڈیٹا اور ماڈل بلڈنگ سے لے کر تعیناتی اور تخمینہ تک پہنچا سکتا ہے۔ اور اس کا مطلب ہے کہ مختلف پروسیسر آرکیٹیکچرز کی متعلقہ طاقتوں کی تعریف کرنا، تاکہ آپ صحیح کمپیوٹ انجن کو صحیح وقت پر لگا سکیں۔

Intel کے سینئر ڈائریکٹر، Datacenter AI Strategy and Execution کے طور پر، Shardul Brahmbhatt وضاحت کرتے ہیں، "CPU کو کلاؤڈ میں مائیکرو سروسز اور روایتی کمپیوٹ مثالوں کے لیے استعمال کیا گیا ہے۔ اور GPUs کو متوازی کمپیوٹ کے لیے استعمال کیا گیا ہے، جیسے میڈیا اسٹریمنگ، گیمنگ، اور AI کام کے بوجھ کے لیے۔

لہذا جیسا کہ ہائپر اسکیلرز اور دیگر کلاؤڈ پلیئرز نے اپنی توجہ AI کی طرف مبذول کرائی ہے، یہ واضح ہو گیا ہے کہ وہ مختلف کاموں کے لیے انہی طاقتوں کا فائدہ اٹھا رہے ہیں۔

مثال کے طور پر، متوازی کمپیوٹ کے ارد گرد GPUs کی صلاحیتیں انہیں AI الگورتھم کی تربیت کے لیے انتہائی موزوں بناتی ہیں۔ دریں اثنا، جب کم بیچ، کم لیٹنسی ریئل ٹائم انفرنس، اور لائیو ڈیٹا کا تجزیہ کرنے اور نتائج اور پیشین گوئیاں فراہم کرنے کے لیے ان الگورتھم کو استعمال کرنے کی بات آتی ہے تو CPUs کو ایک برتری حاصل ہوتی ہے۔

ایک بار پھر، انتباہات ہیں، برہم بھٹ بتاتے ہیں، "ایسی جگہیں ہیں جہاں آپ مزید بیچ کا اندازہ لگانا چاہتے ہیں۔ اور وہ بیچ کا اندازہ بھی کچھ ایسا ہے جو GPUs یا ASICs کے ذریعے کیا جا رہا ہے۔

پائپ لائن کے نیچے دیکھ رہے ہیں۔

لیکن AI پائپ لائن تربیت اور اندازہ سے آگے بڑھی ہوئی ہے۔ پائپ لائن کے بائیں جانب، ڈیٹا کو پہلے سے تیار کیا جانا ہے، اور الگورتھم تیار کرنا ہے۔ جنرلسٹ سی پی یو کا یہاں ایک اہم کردار ہے۔

درحقیقت، GPUs AI پائپ لائن میں کل پروسیسر کی سرگرمی کے نسبتاً چھوٹے تناسب کا حصہ ہیں، جس میں CPU سے چلنے والے "ڈیٹا سٹیج" کے کام کا بوجھ مجموعی طور پر دو تہائی ہے، انٹیل کے مطابق (آپ ایک حل بریف پڑھ سکتے ہیں – Intel CPU ٹیکنالوجی کے ساتھ انفرنس کو بہتر بنائیں یہاں).

اور برہم بھٹ ہمیں یاد دلاتے ہیں کہ CPU فن تعمیر کے دیگر فوائد ہیں، بشمول پروگرام کی اہلیت۔

"چونکہ سی پی یوز کو اتنے وسیع پیمانے پر استعمال کیا گیا ہے، اس لیے پہلے سے ہی ڈویلپرز اور ایپلیکیشنز کا ایک موجودہ ایکو سسٹم موجود ہے، اس کے علاوہ ایسے ٹولز جو عام مقصد کے حساب کے لیے استعمال میں آسانی اور پروگرام کی اہلیت فراہم کرتے ہیں،" وہ کہتے ہیں۔

"دوسرا، CPUs بڑی میموری کی جگہ تک تیزی سے رسائی فراہم کرتے ہیں۔ اور پھر تیسری چیز یہ ہے کہ یہ زیادہ غیر ساختہ کمپیوٹ بمقابلہ GPUs [جو] زیادہ متوازی کمپیوٹ ہیں۔ ان وجوہات کی بناء پر، CPUs ڈیٹا موورز کے طور پر کام کرتے ہیں جو GPUs کو فیڈ کرتے ہیں، اس طرح Recommender سسٹم کے ماڈلز کے ساتھ ساتھ گراف نیورل نیٹ ورکس جیسے کام کے بوجھ کو تیار کرنے میں مدد کرتے ہیں۔

AI کی ترقی کے لیے ایک کھلا منصوبہ

تو ہمیں AI ڈویلپمنٹ پائپ لائن کی منصوبہ بندی کرتے وقت بالترتیب CPUs اور GPUs کے کردار کو کیسے دیکھنا چاہیے، چاہے آن پریم ہو، کلاؤڈ میں ہو، یا دونوں کو سٹرڈل کر رہے ہوں؟

GPUs نے AI کی ترقی میں انقلاب برپا کیا، کیونکہ انہوں نے سرعت کا ایک طریقہ پیش کیا جو CPU سے آپریشن کو آف لوڈ کرتا ہے۔ لیکن یہ اس بات کی پیروی نہیں کرتا ہے کہ یہ دی گئی ملازمت کے لئے سب سے زیادہ سمجھدار آپشن ہے۔

جیسا کہ انٹیل پلیٹ فارم کے آرکیٹیکٹ شرتھ راگھوا نے وضاحت کی ہے کہ "AI ایپلی کیشنز میں ویکٹرائز کمپیوٹیشن ہوتے ہیں۔ ویکٹر کی گنتی متوازی ہیں۔ AI کام کے بوجھ کو مؤثر طریقے سے چلانے کے لیے، کوئی بھی ویکٹر کمپیوٹیشن کے سائز، آف لوڈ لیٹنسی، متوازی صلاحیت، اور بہت سے دوسرے عوامل پر غور کرتے ہوئے CPUs اور GPUs کی صلاحیتوں سے فائدہ اٹھا سکتا ہے۔" لیکن وہ جاری رکھتا ہے، ایک "چھوٹے" کام کے لیے، آف لوڈنگ کی "لاگت" بہت زیادہ ہوگی، اور اسے GPU یا ایکسلریٹر پر چلانے کا کوئی مطلب نہیں ہوگا۔

CPUs دوسرے سسٹم کے اجزاء کے ساتھ قریبی انضمام سے بھی فائدہ اٹھا سکتے ہیں جو انہیں AI کام کو زیادہ تیزی سے مکمل کرنے کی اجازت دیتے ہیں۔ AI کی تعیناتیوں سے زیادہ سے زیادہ قیمت حاصل کرنے میں صرف ماڈلز کو چلانے سے زیادہ شامل ہوتا ہے - جس بصیرت کی تلاش کی گئی ہے اس کا انحصار موثر پری پروسیسنگ، انفرنس، اور پوسٹ پروسیسنگ آپریشنز پر ہوتا ہے۔ پری پروسیسنگ کے لیے ڈیٹا تیار کرنے کی ضرورت ہوتی ہے تاکہ تربیت یافتہ ماڈل کی ان پٹ کی توقعات کو پورا کیا جا سکے اس سے پہلے کہ اسے تخمینہ پیدا کرنے کے لیے کھلایا جائے۔ اس کے بعد مفید معلومات کو پوسٹ پروسیسنگ کے مرحلے میں قیاس کے نتائج سے نکالا جاتا ہے۔

اگر ہم مثال کے طور پر ڈیٹا سنٹر انٹروژن ڈیٹیکشن سسٹم (IDS) کے بارے میں سوچتے ہیں، تو بروقت سائبر حملے سے ہونے والے نقصان کو بچانے اور اسے روکنے کے لیے ماڈل کے آؤٹ پٹ پر عمل کرنا ضروری ہے۔ اور عام طور پر، پری پروسیسنگ اور پوسٹ پروسیسنگ کے اقدامات زیادہ موثر ہوتے ہیں جب وہ میزبان سسٹم CPUs پر کیے جاتے ہیں کیونکہ وہ باقی آرکیٹیکچرل ماحولیاتی نظام کے ساتھ زیادہ قریب سے مربوط ہوتے ہیں۔

ابتدائی احکامات کے تحت کارکردگی میں اضافہ

تو، کیا اس کا مطلب یہ ہے کہ GPU ایکسلریشن کے فوائد کو یکسر ترک کر دیا جائے؟ ضروری نہیں. انٹیل کچھ سالوں سے اپنے Xeon Scalable CPUs میں AI ایکسلریشن بنا رہا ہے۔ رینج میں پہلے سے ہی ڈیپ لرننگ بوسٹ شامل ہے تاکہ ڈیپ لرننگ ماڈلز پر اعلیٰ کارکردگی کا اندازہ لگایا جا سکے، جبکہ Intel کے Advanced Vector Extensions 512 (AVX 512) اور Vector Neural Network Extensions (VNNI) INT8 انفرنسنگ کارکردگی کو تیز کرتے ہیں۔ لیکن DL بوسٹ دماغی فلوٹنگ پوائنٹ فارمیٹ (BF16) کا استعمال تربیتی کام کے بوجھ پر کارکردگی کو بڑھانے کے لیے کرتا ہے جس کے لیے اعلیٰ سطح کی درستگی کی ضرورت نہیں ہوتی ہے۔

Intel کے آنے والے Xeon Scalable چوتھی نسل کے CPUs میں ایڈوانس میٹرکس ضرب، یا AMX شامل ہو جائے گا۔ یہ انٹیل کے حسابات کے مطابق پہلے کے پروسیسرز میں لاگو کیے گئے AVX-8 VNNI x512 ایکسٹینشنز کے مقابلے میں مزید 86 گنا فروغ دے گا، اور 4th جنریشن کے Intel Xeon Scalable پروسیسرز کو "ٹریننگ ورک بوجھ اور DL الگورتھم کو GPU کی طرح ہینڈل کرنے کی اجازت دے گا"۔ لیکن وہی ایکسلریٹر AI اور غیر AI کام کے بوجھ کے لیے عام CPU کمپیوٹ پر بھی لاگو کیے جا سکتے ہیں۔

اس کا مطلب یہ نہیں ہے کہ انٹیل کو توقع ہے کہ AI پائپ لائنز شروع سے ختم ہونے تک x86 ہوں گی۔ جب تربیتی کام کے بوجھ کو مکمل طور پر آف لوڈ کرنا زیادہ سمجھ میں آتا ہے جو متوازی ہونے سے فائدہ اٹھاتا ہے، تو Intel اپنا Habana Gaudi AI ٹریننگ پروسیسر پیش کرتا ہے۔ بینچ مارک ٹیسٹوں سے پتہ چلتا ہے کہ موخر الذکر پاور ایمیزون EC2 DL1 مثالیں جو کلاؤڈ میں میزبانی کی جانے والی Nvidia GPU پر مبنی تربیتی مثالوں کے مقابلے میں 40 فیصد تک بہتر قیمت پرفارمنس فراہم کر سکتی ہیں۔

ایک ہی وقت میں، Intel کا ڈیٹا سینٹر GPU Flex Series کام کے بوجھ اور آپریشنز کے لیے تیار ہے جو AI inference جیسے متوازی سے فائدہ اٹھاتے ہیں، جس میں "ہلکے" اور زیادہ پیچیدہ AI ماڈلز پر مختلف عمل درآمد ہوتے ہیں۔ ایک اور Intel® ڈیٹا سینٹر GPU، جس کا کوڈ نام Ponte Vecchio (PVC) ہے، جلد ہی Argonne نیشنل لیبارٹری میں Aurora سپر کمپیوٹر کو طاقت دینا شروع کر دے گا۔

کیا ہم آخر تک جا سکتے ہیں؟

ممکنہ طور پر، پھر، Intel کا سلیکون پوری AI پائپ لائن کو زیر کر سکتا ہے، جبکہ مختلف کمپیوٹ انجنوں کے درمیان ڈیٹا کو غیر ضروری طور پر آف لوڈ کرنے کی ضرورت کو کم کرتا ہے۔ کمپنی کے پروسیسرز - چاہے GPU ہو یا CPU - اپنے OneAPI پروگرام کے ذریعے انٹیل آپٹیمائزیشن کے ساتھ اوپن سورس ٹولنگ اور فریم ورک پر مبنی ایک عام سافٹ ویئر ماڈل کو بھی سپورٹ کرتے ہیں۔

برہم بھٹ نے ایک اور فائدہ کے طور پر کمیونٹی اور اوپن سورس پر مبنی x86 سافٹ ویئر ایکو سسٹم کی تعمیر میں انٹیل کے ورثے کا حوالہ دیا۔ "انٹیل کے پاس جو فلسفہ ہے وہ ہے ... 'ماحولیاتی نظام کو اپنانے کی اجازت دیں'۔ اور ہمیں اس بات کو یقینی بنانے کی ضرورت ہے کہ ہم ماحولیاتی نظام کے لیے منصفانہ اور کھلے ہیں، اور ہم اپنی کوئی بھی خفیہ چٹنی ماحولیاتی نظام کو واپس فراہم کرتے ہیں۔

"ہم ایک عام سافٹ ویئر اسٹیک استعمال کر رہے ہیں، بنیادی طور پر یہ یقینی بنانے کے لیے کہ ڈویلپرز کو AI کے لیے CPU اور GPU کے درمیان آئی پی کے بنیادی فرق کے بارے میں فکر کرنے کی ضرورت نہیں ہے۔"

ایک مشترکہ سافٹ ویئر اسٹیک کا یہ مجموعہ اور صحیح کام کے لیے صحیح کمپیوٹ انجن کے استعمال پر توجہ دینا انٹرپرائز میں اور بھی اہم ہے۔ کاروبار AI پر بھروسہ کر رہے ہیں تاکہ ان کے کچھ انتہائی اہم مسائل کو حل کرنے میں ان کی مدد کی جا سکے، چاہے وہ کلاؤڈ میں ہو یا پریم پر۔ لیکن مخلوط کام کے بوجھ کو مکمل خصوصیات والے سافٹ ویئر کے ساتھ ساتھ سسٹم اسٹیک کی دیکھ بھال اور انتظام کی ضرورت ہوتی ہے، اس کوڈ کو چلانے کے لیے جو دانا میں شامل نہیں ہے جو ایکسلریٹر پر بیٹھتا ہے۔

لہذا، جب اس سوال کا جواب دینے کی بات آتی ہے کہ "ہم AI کو انٹرپرائز پیمانے پر کیسے حاصل کرتے ہیں" جواب کا انحصار بڑی تصویر پر ایک نظر ڈالنے اور اس بات کو یقینی بنانے پر ہو سکتا ہے کہ آپ اپنے اختیار میں ہارڈ ویئر اور سافٹ ویئر کٹ کی مکمل تکمیل استعمال کرتے ہیں۔

Intel کی طرف سے سپانسر.

ٹائم اسٹیمپ:

سے زیادہ رجسٹر