Nvidian koodi on alhainen AI Enterprise -päivityksessä PlatoBlockchain Data Intelligencessa. Pystysuuntainen haku. Ai.

Nvidian koodi on alhainen AI Enterprise -päivityksessä

Nvidia pyrkii poistamaan koneoppimisen kehittämisen kivun tällä viikolla uusimmalla AI Enterprise -ohjelmiston julkaisulla, joka sisältää matalakoodin työkalupakin koneoppimisen työkuormituksiin.

Päivitys laajentaa myös tukea Red Hat OpenShiftille, Domino Data Labin ML-toimintaympäristölle ja Azuren NVads A10 v5 -sarjan virtuaalikoneen.

Viime kesänä esitelty Nvidia laskuttaa AI Enterprisea keskitetysti yritystyökuormien kehittämisen ja käyttöönoton GPU:issa riippumatta siitä, otetaanko ne käyttöön on-premissä vai pilvessä.

Sarja on kokoelma työkaluja ja kehyksiä, jotka Nvidia on kehittänyt tai sertifioinut, jotta AI/ML-sovellusten rakentaminen olisi helpompaa kaikenkokoisille yrityksille. Viime vuoden aikana siruvalmistaja on ottanut käyttöön tuen useille suosituille kehyksille ja laskenta-alustoille, kuten VMwaren vSpherelle.

Uusin julkaisu - version 2.1 — ottaa käyttöön matalan koodin tuen Nvidian TAO Toolkit -työkalun muodossa.

Matala koodi on ajatus poistaa sovelluksen manuaaliseen koodaamiseen liittyvä monimutkaisuus – tässä tapauksessa puhe- ja tekoälynäkötyökuormitukset – käyttämällä vain vähän tai ei ollenkaan koodia prosessissa. Esimerkiksi Nvidian TOA Toolkit sisältää REST API -tuen, painojen tuonnin, TensorBoard-integraatiot ja useita valmiiksi koulutettuja malleja, jotka on suunniteltu yksinkertaistamaan sovelluksen kokoamista.

Matalakooditoimintojen lisäksi julkaisu sisältää myös uusimman version Nvidia RAPIDS:stä (22.04) – sarjan avoimen lähdekoodin ohjelmistokirjastoja ja API-liittymiä, jotka on suunnattu GPU:illa toimiviin datatieteen sovelluksiin.

2.1-julkaisussa siruvalmistaja sertifioi myös nämä työkalut ja työmäärät käytettäväksi useiden ohjelmistojen ja pilvialustojen kanssa.

Niille, jotka ovat siirtymässä kontti- ja pilvipohjaisiin kehyksiin, päivitys lisää virallisen tuen Nvidia-työkuormien suorittamiseen Red Hatin suositulla OpenShift Kubernetes -alustalla julkisessa pilvessä.

Red Hatin konttiajoaika on viimeisin sertifioitu sovellusympäristö, ja se seuraa VMwaren viime vuoden vSphere-integraatiota. Myös Domino Data Labin MLOps-palvelu sai tällä viikolla Nvidian siunauksen. Yrityksen alusta tarjoaa työkaluja GPU-kiihdytettyjen palvelimien järjestämiseen AI/ML-työkuormien virtualisoimiseksi.

Ja mikä ei pitäisi yllättää ketään, tiimi vihreä on sertifioinut Microsoft Azuren uusimman sukupolven Nvidia-pohjaiset GPU-esiintymät, käyttöön maaliskuussa. Instanssit saavat virtansa siruvalmistajan A10-kiihdyttimestä, joka voidaan jakaa jopa kuuteen murto-osasta GPU:ta käyttämällä ajallista viipalointia.

Nvidia AI Enterprise -päivitysten lisäksi yritys toi myös kolme uutta laboratoriota LaunchPad-palveluun, joka tarjoaa yrityksille lyhytaikaisen pääsyn sen AI/ML-ohjelmistoon ja -laitteistoon konseptien todistamista ja testausta varten.

Uusimmat laboratoriot sisältävät usean solmun koulutuksen kuvien luokitteluun vSpheressä Tanzulla, VMwaren Kubernetes-alustalla; petosten havaitseminen XGBoost-mallilla ja Tritonilla, Nvidian päättelypalvelimella; ja objektien havaitsemisen mallinnus käyttäen TOA Toolkit ja DeepStream, siruvalmistajan suoratoistoanalytiikkapalvelu. ®

Aikaleima:

Lisää aiheesta Rekisteri