تتعطل Nvidia مع التعليمات البرمجية المنخفضة في تحديث AI Enterprise PlatoBlockchain Data Intelligence. البحث العمودي. منظمة العفو الدولية.

تتعطل Nvidia برمز منخفض في تحديث AI Enterprise

تهدف Nvidia إلى التخلص من معاناة تطوير التعلم الآلي هذا الأسبوع من خلال الإصدار الأخير من مجموعة AI Enterprise ، والتي تتضمن مجموعة أدوات منخفضة التعليمات البرمجية لأعباء عمل التعلم الآلي.

يوسع التحديث أيضًا دعم Red Hat OpenShift ومنصة عمليات ML من Domino Data Lab وسلسلة الأجهزة الافتراضية NVads A10 v5 من Azure.

تم طرح Nvidia في الصيف الماضي ، حيث فاتورة AI Enterprise كمتجر شامل لتطوير ونشر أحمال عمل المؤسسة على وحدات معالجة الرسومات الخاصة بها ، بغض النظر عما إذا كانت منشورة في مكان العمل أو في السحابة.

المجموعة عبارة عن مجموعة من الأدوات والأطر التي تم تطويرها أو اعتمادها من قبل Nvidia لجعل إنشاء تطبيقات AI / ML أكثر سهولة للمؤسسات من جميع الأحجام. على مدار العام الماضي ، قدمت شركة تصنيع الشرائح الإلكترونية دعمًا لمجموعة متنوعة من أطر العمل الشائعة ومنصات الحوسبة ، مثل VMware's vSphere.

أحدث إصدار - إصدار 2.1 - يقدم دعمًا منخفض الشفرة في شكل مجموعة أدوات TAO من Nvidia.

الكود المنخفض هو فكرة تجريد التعقيد المرتبط بالترميز اليدوي لتطبيق ما - في هذه الحالة الكلام وأعباء عمل رؤية الذكاء الاصطناعي - باستخدام القليل من التعليمات البرمجية أو عدم استخدامها في هذه العملية. على سبيل المثال ، تتميز مجموعة أدوات TOA من Nvidia بدعم REST API ، واستيراد الأوزان ، وتكامل TensorBoard ، والعديد من النماذج المدربة مسبقًا ، والمصممة لتبسيط عملية تجميع التطبيق.

إلى جانب وظائف الشفرة المنخفضة ، يشتمل الإصدار أيضًا على أحدث إصدار من Nvidia RAPIDS (22.04) - مجموعة من مكتبات البرامج مفتوحة المصدر وواجهات برمجة التطبيقات (API) التي تستهدف تطبيقات علوم البيانات التي تعمل على وحدات معالجة الرسومات.

يرى الإصدار 2.1 أيضًا أن صانع الشرائح يصادق على هذه الأدوات وأعباء العمل للاستخدام مع مجموعة متنوعة من البرامج والأنظمة الأساسية السحابية.

بالنسبة لأولئك الذين يهاجرون إلى أطر عمل حاوية وسحابة أصلية ، يضيف التحديث دعمًا رسميًا لتشغيل أحمال عمل Nvidia على منصة OpenShift Kubernetes الشهيرة من Red Hat في السحابة العامة.

يعد وقت تشغيل حاوية Red Hat هو أحدث بيئة تطبيق يتم اعتمادها ، ويتبع تكامل VMware's vSphere العام الماضي. كما حظيت خدمة MLOps التابعة لـ Domino Data Lab بمباركة Nvidia هذا الأسبوع. توفر منصة الشركة أدوات لتنظيم الخوادم المسرعة بواسطة وحدة معالجة الرسومات من أجل التمثيل الافتراضي لأعباء عمل الذكاء الاصطناعي / التعلم الآلي.

وفي ما لا ينبغي أن يفاجئ أحد ، اعتمد فريق Green أحدث جيل من Microsoft Azure من مثيلات GPU المستندة إلى Nvidia ، أدخلت في مارس. يتم تشغيل المثيلات بواسطة مسرع A10 الخاص بصانع الرقائق ، والذي يمكن تقسيمه إلى ما يصل إلى ستة وحدات معالجة رسومية جزئية باستخدام التقطيع الزمني.

بالإضافة إلى تحديثات Nvidia AI Enterprise ، قدمت الشركة أيضًا ثلاثة مختبرات جديدة إلى خدمة LaunchPad الخاصة بها ، والتي توفر للمؤسسات وصولاً قصير المدى إلى برامج وأجهزة AI / ML الخاصة بها لإثبات المفاهيم وأغراض الاختبار.

تتضمن أحدث المعامل تدريبًا متعدد العقد لتصنيف الصور على vSphere مع تانزو ، منصة Kubernetes من VMware ؛ كشف الاحتيال باستخدام نموذج XGBoost و Triton ، خادم الاستدلال من Nvidia ؛ ونمذجة الكشف عن الكائنات باستخدام TOA Toolkit و DeepStream ، خدمة تحليلات التدفق الخاصة بصانع الرقائق. ®

الطابع الزمني:

اكثر من السجل