Nvidia יורדת עם קוד נמוך בעדכון AI Enterprise PlatoBlockchain Data Intelligence. חיפוש אנכי. איי.

Nvidia יורדת עם קוד נמוך בעדכון AI Enterprise

Nvidia שואפת להסיר את הכאב מפיתוח למידת מכונה השבוע עם המהדורה האחרונה של חבילת ה-AI Enterprise שלה, הכוללת ערכת כלים דלת קוד לעומסי עבודה של למידת מכונה.

העדכון מרחיב גם את התמיכה ב-Red Hat OpenShift, בפלטפורמת התפעול ML של Domino Data Lab, ובמכונות הוירטואליות מסדרת NVads A10 v5 של Azure.

Nvidia, שהוצגה בקיץ שעבר, מציגה הצעות ל-AI Enterprise כמקום אחד לפיתוח ופריסה של עומסי עבודה ארגוניים על ה-GPUs שלה, ללא קשר אם הם נפרסים במקום או בענן.

החבילה היא אוסף של כלים ומסגרות שפותחו או מאושרות על ידי Nvidia כדי להפוך את בניית יישומי AI/ML לנגישים יותר לארגונים בכל הגדלים. במהלך השנה האחרונה, יצרנית השבבים הפיקה תמיכה במגוון מסגרות ופלטפורמות מחשוב פופולריות, כמו vSphere של VMware.

המהדורה האחרונה - גרסה 2.1 - מציגה תמיכה בקוד נמוך בצורה של ערכת הכלים TAO של Nvidia.

קוד נמוך הוא הרעיון של הפשטה של ​​המורכבות הקשורה בקידוד ידני של אפליקציה - במקרה זה עומסי עבודה של דיבור וראייה בינה מלאכותית - תוך שימוש במעט או ללא קוד בתהליך. ה-TOA Toolkit של Nvidia, למשל, כולל תמיכה ב-REST API, ייבוא ​​משקולות, שילובי TensorBoard ומספר דגמים מאומנים מראש, שנועדו לפשט את תהליך הרכבת האפליקציה.

לצד פונקציונליות של קוד נמוך, המהדורה כוללת גם את הגרסה העדכנית ביותר של Nvidia RAPIDS (22.04) - חבילה של ספריות תוכנות קוד פתוח וממשקי API המיועדים ליישומי מדעי נתונים הפועלים על GPUs.

מהדורת 2.1 גם רואה את יצרנית השבבים מאשרת את הכלים ועומסי העבודה הללו לשימוש עם מגוון תוכנות ופלטפורמות ענן.

לאלו שעוברים למסגרות מכולות ומלאי ענן, העדכון מוסיף תמיכה רשמית להפעלת עומסי עבודה של Nvidia בפלטפורמת OpenShift Kubernetes הפופולרית של Red Hat בענן הציבורי.

זמן הריצה של ה-Container של Red Hat היא סביבת היישומים העדכנית ביותר שאושרה, ועוקבת אחר שילוב vSphere של VMware בשנה שעברה. גם שירות MLOps של Domino Data Lab קיבל השבוע את ברכתה של Nvidia. הפלטפורמה של החברה מספקת כלים לתזמור שרתים מואצים ב-GPU עבור וירטואליזציה של עומסי עבודה של AI/ML.

ובמה שאסור להפתיע אף אחד, צוות גרין אישרה את הדור האחרון של Microsoft Azure של מופעי GPU מבוססי Nvidia, הציג במרץ. המופעים מופעלים על ידי מאיץ A10 של יצרנית השבבים, אשר ניתן לפצל עד שישה GPUs חלקיים באמצעות חיתוך זמני.

בנוסף לעדכוני Nvidia AI Enterprise, החברה הציגה גם שלוש מעבדות חדשות לשירות LaunchPad שלה, המספק לארגונים גישה קצרת טווח לתוכנת וחומרת ה-AI/ML שלה להוכחת מושגים ולמטרות בדיקה.

המעבדות האחרונות כוללות הדרכה מרובה צמתים לסיווג תמונות ב-vSphere עם Tanzu, פלטפורמת Kubernetes של VMware; זיהוי הונאה באמצעות מודל XGBoost ו-Triton, שרת ההסקות של Nvidia; ומידול זיהוי אובייקטים באמצעות TOA Toolkit ו-DeepStream, שירות ניתוח הסטרימינג של יצרנית השבבים. ®

בול זמן:

עוד מ הקופה