Nvidia kommer ned med lav kode i AI Enterprise-oppdateringen PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Nvidia kommer ned med lav kode i AI Enterprise-oppdatering

Nvidia tar sikte på å ta smerten av utviklingen av maskinlæring denne uken med den siste utgivelsen av AI Enterprise-pakken, som inkluderer et lavkodeverktøy for maskinlæringsarbeid.

Oppdateringen utvider også støtten for Red Hat OpenShift, Domino Data Labs ML-operasjonsplattform og Azures virtuelle maskiner i NVads A10 v5-serien.

Nvidia ble introdusert i fjor sommer, og fakturerer AI Enterprise som en one-stop-shop for utvikling og distribusjon av bedriftsarbeidsbelastninger på sine GPU-er, uavhengig av om de er distribuert på stedet eller i skyen.

Suiten er en samling verktøy og rammeverk utviklet eller sertifisert av Nvidia for å gjøre bygging av AI/ML-applikasjoner mer tilgjengelige for bedrifter i alle størrelser. I løpet av det siste året har brikkeprodusenten rullet ut støtte for en rekke populære rammeverk og dataplattformer, som VMwares vSphere.

Den siste utgivelsen - versjon 2.1 — introduserer lavkodestøtte i form av Nvidias TAO Toolkit.

Lav kode er ideen om å abstrahere bort kompleksiteten forbundet med å manuelt kode en applikasjon – i dette tilfellet tale- og AI-synsarbeidsbelastninger – ved å bruke lite eller ingen kode i prosessen. Nvidias TOA Toolkit har for eksempel REST API-støtte, vektimport, TensorBoard-integrasjoner og flere forhåndstrente modeller, designet for å forenkle prosessen med å sette sammen en applikasjon.

I tillegg til lavkodefunksjonalitet inkluderer utgivelsen også den nyeste versjonen av Nvidia RAPIDS (22.04) – en pakke med åpen kildekodeprogramvarebiblioteker og API-er rettet mot datavitenskapsapplikasjoner som kjører på GPUer.

Utgivelsen av 2.1 ser også at brikkeprodusenten sertifiserer disse verktøyene og arbeidsbelastningene for bruk med en rekke programvare- og skyplattformer.

For de som migrerer til containeriserte og skybaserte rammeverk, legger oppdateringen til offisiell støtte for å kjøre Nvidia-arbeidsbelastninger på Red Hats populære OpenShift Kubernetes-plattform i den offentlige skyen.

Red Hats containerruntime er det siste applikasjonsmiljøet som skal sertifiseres, og følger VMwares vSphere-integrasjon i fjor. Domino Data Labs MLOps-tjeneste mottok også Nvidias velsignelse denne uken. Selskapets plattform gir verktøy for orkestrering av GPU-akselererte servere for virtualisering av AI/ML-arbeidsbelastninger.

Og, i det som ikke burde overraske noen, har team green sertifisert Microsoft Azures siste generasjon av Nvidia-baserte GPU-forekomster, introdusert i mars. Forekomstene drives av brikkeprodusentens A10-akselerator, som kan deles opp i opptil seks fraksjonerte GPUer ved bruk av temporal slicing.

I tillegg til Nvidia AI Enterprise-oppdateringer, introduserte selskapet også tre nye laboratorier til LaunchPad-tjenesten, som gir bedrifter kortsiktig tilgang til AI/ML-programvaren og -maskinvaren for bevis på konsepter og testformål.

De siste laboratoriene inkluderer trening med flere noder for bildeklassifisering på vSphere med Tanzu, VMwares Kubernetes-plattform; svindeldeteksjon ved bruk av XGBoost-modellen og Triton, Nvidias inferensserver; og objektdeteksjonsmodellering ved hjelp av TOA Toolkit og DeepStream, chipmakerens streaminganalysetjeneste. ®

Tidstempel:

Mer fra Registeret