Nvidia desce com baixo código na atualização do AI Enterprise PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Nvidia fica com pouco código na atualização do AI Enterprise

A Nvidia pretende eliminar a dor do desenvolvimento de aprendizado de máquina esta semana com a versão mais recente de seu pacote AI Enterprise, que inclui um kit de ferramentas de baixo código para cargas de trabalho de aprendizado de máquina.

A atualização também estende o suporte para Red Hat OpenShift, plataforma de operações de ML do Domino Data Lab e máquinas virtuais da série NVads A10 v5 do Azure.

Introduzida no verão passado, a Nvidia considera a AI Enterprise como um balcão único para desenvolver e implantar cargas de trabalho corporativas em suas GPUs, independentemente de serem implantadas no local ou na nuvem.

O pacote é uma coleção de ferramentas e estruturas desenvolvidas ou certificadas pela Nvidia para tornar a criação de aplicativos de IA/ML mais acessível a empresas de todos os tamanhos. No ano passado, a fabricante de chips lançou suporte para uma variedade de estruturas e plataformas de computação populares, como o vSphere da VMware.

O último lançamento - versão 2.1 — introduz suporte a low-code na forma do TAO Toolkit da Nvidia.

Low code é a ideia de abstrair a complexidade associada à codificação manual de um aplicativo - neste caso, cargas de trabalho de fala e visão de IA - usando pouco ou nenhum código no processo. O TOA Toolkit da Nvidia, por exemplo, apresenta suporte à API REST, importação de pesos, integrações do TensorBoard e vários modelos pré-treinados, projetados para simplificar o processo de montagem de um aplicativo.

Juntamente com a funcionalidade de baixo código, o lançamento também inclui a versão mais recente do Nvidia RAPIDS (22.04) - um conjunto de bibliotecas de software de código aberto e APIs voltadas para aplicativos de ciência de dados executados em GPUs.

A versão 2.1 também vê o fabricante de chips certificar essas ferramentas e cargas de trabalho para uso com uma variedade de plataformas de software e nuvem.

Para aqueles que estão migrando para estruturas conteinerizadas e nativas da nuvem, a atualização adiciona suporte oficial para executar cargas de trabalho da Nvidia na plataforma OpenShift Kubernetes da Red Hat na nuvem pública.

O container runtime da Red Hat é o ambiente de aplicação mais recente a ser certificado e segue a integração do VMware vSphere no ano passado. O serviço MLOps do Domino Data Lab também recebeu a bênção da Nvidia esta semana. A plataforma da empresa fornece ferramentas para orquestrar servidores acelerados por GPU para a virtualização de cargas de trabalho de IA/ML.

E, o que não deve surpreender ninguém, a equipe verde certificou a última geração de instâncias de GPU baseadas em Nvidia do Microsoft Azure, introduzido em março. As instâncias são alimentadas pelo acelerador A10 do fabricante de chips, que pode ser dividido em até seis GPUs fracionadas usando fatiamento temporal.

Além das atualizações do Nvidia AI Enterprise, a empresa também introduziu três novos laboratórios em seu serviço LaunchPad, que fornece às empresas acesso de curto prazo ao seu software e hardware de IA/ML para prova de conceitos e fins de teste.

Os laboratórios mais recentes incluem treinamento em vários nós para classificação de imagens no vSphere com Tanzu, a plataforma Kubernetes da VMware; detecção de fraudes usando o modelo XGBoost e Triton, servidor de inferência da Nvidia; e modelagem de detecção de objetos usando o TOA Toolkit e DeepStream, o serviço de análise de streaming do fabricante de chips. ®

Carimbo de hora:

Mais de O registro