Run:ai حصول کے ساتھ، Nvidia کا مقصد آپ کے AI K8s کا نظم کرنا ہے۔

Run:ai حصول کے ساتھ، Nvidia کا مقصد آپ کے AI K8s کا نظم کرنا ہے۔

With Run:ai acquisition, Nvidia aims to manage your AI K8s PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Nvidia نے بدھ کے روز AI-centric Kubernetes آرکیسٹریشن فراہم کنندہ Run:ai کے حصول کا اعلان کیا تاکہ GPU پر بنائے گئے کمپیوٹنگ کلسٹرز کی کارکردگی کو بڑھانے میں مدد ملے۔

کی تفصیلات معاہدہ ظاہر نہیں کیا گیا تھا، لیکن مبینہ طور پر اس معاہدے کی مالیت تقریباً 700 ملین ڈالر ہو سکتی ہے۔ تل ابیب میں قائم اسٹارٹ اپ نے ظاہر ہے 118 میں قائم ہونے کے بعد سے چار فنڈنگ ​​راؤنڈز میں $2018 ملین اکٹھا کیا۔

Run:ai کا پلیٹ فارم متعدد مقبول Kubernetes مختلف قسموں کے ساتھ کام کرنے کے لیے ایک مرکزی صارف انٹرفیس اور کنٹرول طیارہ فراہم کرتا ہے۔ یہ اسے تھوڑا سا RedHat's OpenShift یا SUSE's Rancher کی طرح بناتا ہے، اور اس میں نام کی جگہوں، صارف پروفائلز، اور وسائل کی تقسیم جیسی چیزوں کے انتظام کے لیے بہت سے ایک جیسے ٹولز موجود ہیں۔

اہم فرق یہ ہے کہ Run:ai's کو تھرڈ پارٹی AI ٹولز اور فریم ورکس کے ساتھ مربوط کرنے اور GPU ایکسلریٹڈ کنٹینرز کے ماحول سے نمٹنے کے لیے ڈیزائن کیا گیا ہے۔ اس کے سافٹ ویئر پورٹ فولیو میں کام کا بوجھ شیڈولنگ اور ایکسلریٹر پارٹیشننگ جیسے عناصر شامل ہیں، جن میں سے مؤخر الذکر متعدد کام کے بوجھ کو ایک ہی GPU میں پھیلانے کی اجازت دیتا ہے۔

Nvidia کے مطابق، Run:ai کا پلیٹ فارم پہلے سے ہی اپنے DGX کمپیوٹ پلیٹ فارمز کو سپورٹ کرتا ہے، بشمول اس کی Superpod کنفیگریشن، بیس کمانڈ کلسٹر مینجمنٹ سسٹم، NGC کنٹینر لائبریری، اور ایک AI انٹرپرائز سویٹ۔

AI کے حوالے سے Kubernetes کا دعویٰ ہے کہ ننگی دھاتوں کی تعیناتی پر بہت سے فوائد ہیں، کیونکہ ماحول کو متعدد، ممکنہ طور پر جغرافیائی طور پر تقسیم شدہ وسائل میں پیمانے کو سنبھالنے کے لیے ترتیب دیا جا سکتا ہے۔

ابھی کے لیے، موجودہ Run:ai صارفین کو Nvidia کے پلیٹ فارم میں بڑی تبدیلیاں کرنے کے بارے میں فکر کرنے کی ضرورت نہیں ہے۔ ایک ___ میں جاری, Nvidia نے کہا کہ وہ اسی کاروباری ماڈل کے تحت Run:ai کی مصنوعات کو مستقبل قریب کے لیے پیش کرتی رہے گی — اس کا مطلب کچھ بھی ہو۔

دریں اثنا، Nvidia کے DGX کلاؤڈ کو سبسکرائب کرنے والوں کو اپنے AI کام کے بوجھ کے لیے Run:ai کے فیچر سیٹ تک رسائی حاصل ہو گی، بشمول بڑے لینگویج ماڈل (LLM) کی تعیناتی۔

یہ اعلان GPU دیو کے صرف ایک ماہ بعد آیا ہے۔ بے نقاب AI ماڈلز بنانے کے لیے ایک نیا کنٹینر پلیٹ فارم جسے Nvidia Inference Microservices (NIM) کہتے ہیں۔

NIMS بنیادی طور پر پہلے سے کنفیگر شدہ اور آپٹمائزڈ کنٹینر امیجز ہیں جن میں ماڈل شامل ہے، چاہے وہ اوپن سورس ہو یا ملکیتی ورژن، اس کو چلانے کے لیے ضروری تمام انحصار کے ساتھ۔

زیادہ تر کنٹینرز کی طرح، NIMs کو CUDA-accelerated Kubernetes نوڈس سمیت مختلف رن ٹائمز میں تعینات کیا جا سکتا ہے۔

LLMs اور دیگر AI ماڈلز کو مائیکرو سروسز میں تبدیل کرنے کے پیچھے خیال یہ ہے کہ انہیں ایک ساتھ نیٹ ورک کیا جا سکتا ہے اور زیادہ پیچیدہ اور خصوصیت سے بھرپور AI ماڈلز بنانے کے لیے استعمال کیا جا سکتا ہے، بصورت دیگر خود ایک سرشار ماڈل کی تربیت کے بغیر ممکن ہو سکتا ہے، یا کم از کم اسی طرح Nvidia لوگوں کو استعمال کرنے کا تصور کرتی ہے۔ انہیں

Run:ai کے حصول کے ساتھ، Nvidia کے پاس اب اپنے GPU انفراسٹرکچر میں ان NIMs کی تعیناتی کا انتظام کرنے کے لیے ایک Kubernetes آرکیسٹریشن پرت ہے۔ ®

ٹائم اسٹیمپ:

سے زیادہ رجسٹر