Nvidia turun dengan kode rendah dalam pembaruan AI Enterprise PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Nvidia turun dengan kode rendah dalam pembaruan AI Enterprise

Nvidia bertujuan untuk menghilangkan rasa sakit dari pengembangan pembelajaran mesin minggu ini dengan rilis terbaru dari suite AI Enterprise-nya, yang mencakup toolkit kode rendah untuk beban kerja pembelajaran mesin.

Pembaruan juga memperluas dukungan untuk Red Hat OpenShift, platform operasi ML Domino Data Lab, dan mesin virtual seri NVads A10 v5 Azure.

Diperkenalkan musim panas lalu, Nvidia menagih AI Enterprise sebagai toko serba ada untuk mengembangkan dan menerapkan beban kerja perusahaan pada GPU-nya, terlepas dari apakah mereka digunakan di tempat atau di cloud.

Suite adalah kumpulan alat dan kerangka kerja yang dikembangkan atau disertifikasi oleh Nvidia untuk membuat aplikasi AI/ML yang dibangun lebih mudah diakses oleh perusahaan dari semua ukuran. Selama setahun terakhir, pembuat chip telah meluncurkan dukungan untuk berbagai kerangka kerja populer dan platform komputasi, seperti vSphere dari VMware.

Rilis terbaru โ€” versi 2.1 โ€” memperkenalkan dukungan kode rendah dalam bentuk TAO Toolkit Nvidia.

Kode rendah adalah gagasan untuk mengabstraksikan kompleksitas yang terkait dengan pengkodean aplikasi secara manual โ€” dalam hal ini beban kerja ucapan dan penglihatan AI โ€” menggunakan sedikit atau tanpa kode dalam prosesnya. Toolkit TOA Nvidia, misalnya, menampilkan dukungan REST API, impor bobot, integrasi TensorBoard, dan beberapa model terlatih, yang dirancang untuk menyederhanakan proses perakitan aplikasi.

Di samping fungsionalitas kode rendah, rilis ini juga menyertakan versi terbaru Nvidia RAPIDS (22.04) โ€” rangkaian pustaka perangkat lunak sumber terbuka dan API yang ditargetkan untuk aplikasi ilmu data yang berjalan di GPU.

Rilis 2.1 juga melihat pembuat chip mengesahkan alat dan beban kerja ini untuk digunakan dengan berbagai perangkat lunak dan platform cloud.

Bagi mereka yang bermigrasi ke kerangka containerized dan cloud-native, pembaruan menambahkan dukungan resmi untuk menjalankan beban kerja Nvidia pada platform OpenShift Kubernetes populer Red Hat di cloud publik.

Container runtime Red Hat adalah lingkungan aplikasi terbaru yang disertifikasi, dan mengikuti integrasi vSphere VMware tahun lalu. Layanan MLOps Domino Data Lab juga mendapat restu dari Nvidia minggu ini. Platform perusahaan menyediakan alat untuk mengatur server yang dipercepat GPU untuk virtualisasi beban kerja AI/ML.

Dan, yang seharusnya tidak mengejutkan siapa pun, tim hijau telah mensertifikasi generasi terbaru instans GPU berbasis Nvidia dari Microsoft Azure, diperkenalkan di bulan Maret. Instans ini didukung oleh akselerator A10 pembuat chip, yang dapat dipecah menjadi hingga enam GPU fraksional menggunakan pengirisan temporal.

Selain pembaruan Nvidia AI Enterprise, perusahaan juga memperkenalkan tiga lab baru ke layanan LaunchPad, yang menyediakan akses jangka pendek bagi perusahaan ke perangkat lunak dan perangkat keras AI/ML untuk bukti konsep dan tujuan pengujian.

Lab terbaru mencakup pelatihan multi-node untuk klasifikasi gambar di vSphere dengan Tanzu, platform Kubernetes VMware; deteksi penipuan menggunakan model XGBoost dan Triton, server inferensi Nvidia; dan pemodelan deteksi objek menggunakan TOA Toolkit dan DeepStream, layanan analitik streaming pembuat chip. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran