Nvidia se baja con código bajo en la actualización de AI Enterprise PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Nvidia se baja con código bajo en la actualización de AI Enterprise

Nvidia tiene como objetivo eliminar el dolor del desarrollo de aprendizaje automático esta semana con el último lanzamiento de su suite AI Enterprise, que incluye un conjunto de herramientas de código bajo para cargas de trabajo de aprendizaje automático.

La actualización también amplía la compatibilidad con Red Hat OpenShift, la plataforma de operaciones de aprendizaje automático de Domino Data Lab y las máquinas virtuales de la serie NVads A10 v5 de Azure.

Presentado el verano pasado, Nvidia presenta AI Enterprise como una ventanilla única para desarrollar e implementar cargas de trabajo empresariales en sus GPU, independientemente de si se implementan en las instalaciones o en la nube.

La suite es una colección de herramientas y marcos desarrollados o certificados por Nvidia para hacer que la creación de aplicaciones AI/ML sea más accesible para empresas de todos los tamaños. Durante el año pasado, el fabricante de chips implementó soporte para una variedad de marcos y plataformas informáticas populares, como vSphere de VMware.

El último lanzamiento — Versión 2.1 — introduce soporte de código bajo en forma de TAO Toolkit de Nvidia.

El código bajo es la idea de abstraer la complejidad asociada con la codificación manual de una aplicación, en este caso, cargas de trabajo de voz e inteligencia artificial, utilizando poco o ningún código en el proceso. El kit de herramientas TOA de Nvidia, por ejemplo, presenta compatibilidad con REST API, importación de pesos, integraciones de TensorBoard y varios modelos preentrenados, diseñados para simplificar el proceso de ensamblaje de una aplicación.

Además de la funcionalidad de código bajo, el lanzamiento también incluye la última versión de Nvidia RAPIDS (22.04), un conjunto de bibliotecas de software de código abierto y API dirigido a aplicaciones de ciencia de datos que se ejecutan en GPU.

La versión 2.1 también ve al fabricante de chips certificar estas herramientas y cargas de trabajo para su uso con una variedad de software y plataformas en la nube.

Para aquellos que migran a marcos nativos en la nube y en contenedores, la actualización agrega soporte oficial para ejecutar cargas de trabajo de Nvidia en la popular plataforma OpenShift Kubernetes de Red Hat en la nube pública.

El tiempo de ejecución de contenedores de Red Hat es el último entorno de aplicaciones en ser certificado y sigue a la integración de vSphere de VMware el año pasado. El servicio MLOps de Domino Data Lab también recibió la bendición de Nvidia esta semana. La plataforma de la empresa proporciona herramientas para orquestar servidores acelerados por GPU para la virtualización de cargas de trabajo de IA/ML.

Y, en lo que no debería sorprender a nadie, el equipo verde ha certificado la última generación de instancias de GPU basadas en Nvidia de Microsoft Azure, Introducido en marzo. Las instancias funcionan con el acelerador A10 del fabricante de chips, que se puede dividir en hasta seis GPU fraccionarias mediante división temporal.

Además de las actualizaciones de Nvidia AI Enterprise, la compañía también presentó tres nuevos laboratorios en su servicio LaunchPad, que brinda a las empresas acceso a corto plazo a su software y hardware AI/ML para fines de prueba de conceptos y pruebas.

Los laboratorios más recientes incluyen capacitación de múltiples nodos para la clasificación de imágenes en vSphere con Tanzu, la plataforma Kubernetes de VMware; detección de fraude utilizando el modelo XGBoost y Triton, el servidor de inferencia de Nvidia; y modelado de detección de objetos utilizando TOA Toolkit y DeepStream, el servicio de análisis de transmisión del fabricante de chips. ®

Sello de tiempo:

Mas de El registro