Nvidia sigter mod at tage smerten ud af maskinlæringsudvikling i denne uge med den seneste udgivelse af sin AI Enterprise-pakke, som inkluderer et lavkodeværktøj til maskinlæringsarbejdsbelastninger.
Opdateringen udvider også understøttelsen af Red Hat OpenShift, Domino Data Labs ML-operationsplatform og Azures virtuelle maskiner i NVads A10 v5-serien.
Nvidia blev introduceret sidste sommer og fakturerer AI Enterprise som en one-stop-shop for udvikling og implementering af virksomhedens arbejdsbelastninger på sine GPU'er, uanset om de er implementeret on-prem eller i skyen.
Suiten er en samling værktøjer og rammer udviklet eller certificeret af Nvidia for at gøre bygning af AI/ML-applikationer mere tilgængelige for virksomheder i alle størrelser. I løbet af det seneste år har chipproducenten udrullet support til en række populære rammer og computerplatforme, såsom VMwares vSphere.
Den seneste udgivelse - udgave 2.1 — introducerer lav-kode support i form af Nvidias TAO Toolkit.
Lav kode er ideen om at abstrahere kompleksiteten, der er forbundet med manuel kodning af en applikation - i dette tilfælde tale- og AI-vision-arbejdsbelastninger - ved at bruge lidt eller ingen kode i processen. Nvidias TOA Toolkit har for eksempel REST API-understøttelse, vægtimport, TensorBoard-integrationer og adskillige præ-trænede modeller, designet til at forenkle processen med at samle en applikation.
Ud over lavkode-funktionalitet inkluderer udgivelsen også den seneste version af Nvidia RAPIDS (22.04) - en suite af open source-softwarebiblioteker og API'er rettet mod datavidenskabelige applikationer, der kører på GPU'er.
2.1-udgivelsen ser også, at chipproducenten certificerer disse værktøjer og arbejdsbelastninger til brug med en række forskellige software- og cloudplatforme.
For dem, der migrerer til containeriserede og cloud-native rammer, tilføjer opdateringen officiel støtte til at køre Nvidia-arbejdsbelastninger på Red Hats populære OpenShift Kubernetes-platform i den offentlige sky.
Red Hats container-runtime er det seneste applikationsmiljø, der er certificeret, og følger VMwares vSphere-integration sidste år. Domino Data Labs MLOps-tjeneste modtog også Nvidias velsignelse i denne uge. Virksomhedens platform giver værktøjer til at orkestrere GPU-accelererede servere til virtualisering af AI/ML-arbejdsbelastninger.
Og, hvad der burde overraske ingen, har team green certificeret Microsoft Azures seneste generation af Nvidia-baserede GPU-instanser, introduceret i marts. Forekomsterne er drevet af chipproducentens A10-accelerator, som kan opdeles i op til seks fraktioneret GPU'er ved hjælp af tidsmæssig udskæring.
Ud over Nvidia AI Enterprise-opdateringer introducerede virksomheden også tre nye laboratorier til sin LaunchPad-tjeneste, som giver virksomheder kortsigtet adgang til deres AI/ML-software og -hardware til bevis for koncepter og testformål.
De seneste laboratorier inkluderer multi-node træning til billedklassificering på vSphere med Tanzu, VMwares Kubernetes platform; svindeldetektion ved hjælp af XGBoost-modellen og Triton, Nvidias inferensserver; og objektdetektionsmodellering ved hjælp af TOA Toolkit og DeepStream, chipproducentens streaminganalysetjeneste. ®
- AI
- ai kunst
- ai kunst generator
- en robot
- kunstig intelligens
- certificering af kunstig intelligens
- kunstig intelligens i banksektoren
- kunstig intelligens robot
- kunstig intelligens robotter
- software til kunstig intelligens
- blockchain
- blockchain konference ai
- coingenius
- samtale kunstig intelligens
- kryptokonference ai
- dalls
- dyb læring
- du har google
- machine learning
- plato
- platon ai
- Platon Data Intelligence
- Platon spil
- PlatoData
- platogaming
- skala ai
- syntaks
- Registret
- zephyrnet