Nvidia tar sikte på å ta smerten av utviklingen av maskinlæring denne uken med den siste utgivelsen av AI Enterprise-pakken, som inkluderer et lavkodeverktøy for maskinlæringsarbeid.
Oppdateringen utvider også støtten for Red Hat OpenShift, Domino Data Labs ML-operasjonsplattform og Azures virtuelle maskiner i NVads A10 v5-serien.
Nvidia ble introdusert i fjor sommer, og fakturerer AI Enterprise som en one-stop-shop for utvikling og distribusjon av bedriftsarbeidsbelastninger på sine GPU-er, uavhengig av om de er distribuert på stedet eller i skyen.
Suiten er en samling verktøy og rammeverk utviklet eller sertifisert av Nvidia for å gjøre bygging av AI/ML-applikasjoner mer tilgjengelige for bedrifter i alle størrelser. I løpet av det siste året har brikkeprodusenten rullet ut støtte for en rekke populære rammeverk og dataplattformer, som VMwares vSphere.
Den siste utgivelsen - versjon 2.1 — introduserer lavkodestøtte i form av Nvidias TAO Toolkit.
Lav kode er ideen om å abstrahere bort kompleksiteten forbundet med å manuelt kode en applikasjon – i dette tilfellet tale- og AI-synsarbeidsbelastninger – ved å bruke lite eller ingen kode i prosessen. Nvidias TOA Toolkit har for eksempel REST API-støtte, vektimport, TensorBoard-integrasjoner og flere forhåndstrente modeller, designet for å forenkle prosessen med å sette sammen en applikasjon.
I tillegg til lavkodefunksjonalitet inkluderer utgivelsen også den nyeste versjonen av Nvidia RAPIDS (22.04) – en pakke med åpen kildekodeprogramvarebiblioteker og API-er rettet mot datavitenskapsapplikasjoner som kjører på GPUer.
Utgivelsen av 2.1 ser også at brikkeprodusenten sertifiserer disse verktøyene og arbeidsbelastningene for bruk med en rekke programvare- og skyplattformer.
For de som migrerer til containeriserte og skybaserte rammeverk, legger oppdateringen til offisiell støtte for å kjøre Nvidia-arbeidsbelastninger på Red Hats populære OpenShift Kubernetes-plattform i den offentlige skyen.
Red Hats containerruntime er det siste applikasjonsmiljøet som skal sertifiseres, og følger VMwares vSphere-integrasjon i fjor. Domino Data Labs MLOps-tjeneste mottok også Nvidias velsignelse denne uken. Selskapets plattform gir verktøy for orkestrering av GPU-akselererte servere for virtualisering av AI/ML-arbeidsbelastninger.
Og, i det som ikke burde overraske noen, har team green sertifisert Microsoft Azures siste generasjon av Nvidia-baserte GPU-forekomster, introdusert i mars. Forekomstene drives av brikkeprodusentens A10-akselerator, som kan deles opp i opptil seks fraksjonerte GPUer ved bruk av temporal slicing.
I tillegg til Nvidia AI Enterprise-oppdateringer, introduserte selskapet også tre nye laboratorier til LaunchPad-tjenesten, som gir bedrifter kortsiktig tilgang til AI/ML-programvaren og -maskinvaren for bevis på konsepter og testformål.
De siste laboratoriene inkluderer trening med flere noder for bildeklassifisering på vSphere med Tanzu, VMwares Kubernetes-plattform; svindeldeteksjon ved bruk av XGBoost-modellen og Triton, Nvidias inferensserver; og objektdeteksjonsmodellering ved hjelp av TOA Toolkit og DeepStream, chipmakerens streaminganalysetjeneste. ®
- AI
- ai kunst
- ai art generator
- du har en robot
- kunstig intelligens
- sertifisering av kunstig intelligens
- kunstig intelligens i bankvirksomhet
- kunstig intelligens robot
- kunstig intelligens roboter
- programvare for kunstig intelligens
- blockchain
- blockchain konferanse ai
- coingenius
- samtale kunstig intelligens
- kryptokonferanse ai
- dall sin
- dyp læring
- google det
- maskinlæring
- plato
- plato ai
- Platon Data Intelligence
- Platon spill
- PlatonData
- platogaming
- skala ai
- syntaks
- Registeret
- zephyrnet