Nvidia kunngjorde onsdag oppkjøpet av den AI-sentriske Kubernetes-orkestrasjonsleverandøren Run:ai i et forsøk på å bidra til å styrke effektiviteten til databehandlingsklynger bygget på GPU.
Detaljene om avtalen ble ikke avslørt, men velig avtalen kan ha en verdi på rundt 700 millioner dollar. Den Tel Aviv-baserte oppstarten har tilsynelatende samlet inn 118 millioner dollar over fire finansieringsrunder siden det ble grunnlagt i 2018.
Run:ai sin plattform gir et sentralt brukergrensesnitt og kontrollplan for å jobbe med en rekke populære Kubernetes-varianter. Dette gjør det litt som RedHats OpenShift eller SUSEs Rancher, og det har mange av de samme verktøyene for å administrere ting som navneområder, brukerprofiler og ressursallokeringer.
Hovedforskjellen er at Run:ai er designet for å integreres med tredjeparts AI-verktøy og rammeverk, og håndtere GPU-akselererte containermiljøer. Programvareporteføljen inkluderer elementer som arbeidsbelastningsplanlegging og akseleratorpartisjonering, hvor sistnevnte lar flere arbeidsbelastninger spres over en enkelt GPU.
I følge Nvidia støtter Run:ai sin plattform allerede DGX-databehandlingsplattformene, inkludert Superpod-konfigurasjonene, Base Command-klyngeadministrasjonssystemet, NGC-beholderbiblioteket og en AI Enterprise-suite.
Med hensyn til AI hevder Kubernetes en rekke fordeler fremfor bare metall-distribusjoner, ettersom miljøet kan konfigureres til å håndtere skalering på tvers av flere, potensielt geografisk distribuerte, ressurser.
Foreløpig trenger ikke eksisterende Run:ai-kunder bekymre seg for at Nvidia skal pålegge store endringer på plattformen. I en slipp, sa Nvidia at de vil fortsette å tilby Run:ai sine produkter under den samme forretningsmodellen, for den nærmeste fremtiden - uansett hva det måtte bety.
I mellomtiden vil de som abonnerer på Nvidias DGX Cloud få tilgang til Run:ai sitt funksjonssett for deres AI-arbeidsbelastninger, inkludert distribusjon av store språkmodeller (LLM).
Kunngjøringen kommer en drøy måned etter GPU-giganten avduket en ny containerplattform for å bygge AI-modeller kalt Nvidia Inference Microservices (NIM).
NIMS er i hovedsak forhåndskonfigurerte og optimaliserte containerbilder som inneholder modellen, enten det er åpen kildekode eller proprietær versjon, med alle avhengighetene som er nødvendige for å få den til å kjøre.
Som de fleste containere, kan NIM-er distribueres på tvers av en rekke kjøretider, inkludert CUDA-akselererte Kubernetes-noder.
Ideen bak å gjøre LLM-er og andre AI-modeller til mikrotjenester er at de kan kobles sammen i nettverk og brukes til å bygge mer komplekse og funksjonsrike AI-modeller enn det ellers ville vært mulig uten å trene en dedikert modell selv, eller i det minste er det slik Nvidia ser for seg at folk bruker dem.
Med oppkjøpet av Run:ai har Nvidia nå et Kubernetes-orkestreringslag for å administrere distribusjonen av disse NIM-ene på tvers av GPU-infrastrukturen. ®
- SEO-drevet innhold og PR-distribusjon. Bli forsterket i dag.
- PlatoData.Network Vertical Generative Ai. Styrk deg selv. Tilgang her.
- PlatoAiStream. Web3 Intelligence. Kunnskap forsterket. Tilgang her.
- PlatoESG. Karbon, CleanTech, Energi, Miljø, Solenergi, Avfallshåndtering. Tilgang her.
- PlatoHelse. Bioteknologisk og klinisk etterretning. Tilgang her.
- kilde: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/
- : har
- :er
- 2018
- a
- Om oss
- akselerert
- akselerator
- adgang
- oppkjøp
- tvers
- fordeler
- Etter
- AI
- AI-modeller
- mål
- Alle
- bevilgninger
- tillater
- allerede
- an
- og
- annonsert
- Kunngjøring
- ER
- AS
- At
- basen
- BE
- bak
- Bit
- styrke
- bygge
- Bygning
- bygget
- virksomhet
- forretningsmodell
- men
- som heter
- CAN
- sentral
- Endringer
- krav
- Cloud
- Cluster
- CO
- kommer
- kommando
- komplekse
- Beregn
- databehandling
- konfigurert
- Container
- Containere
- fortsette
- kontroll
- kunne
- Crunchbase
- Kunder
- avtale
- dedikert
- avhengig
- utplassert
- distribusjon
- distribusjoner
- designet
- detaljer
- forskjell
- distribueres
- effektivitet
- innsats
- elementer
- Enterprise
- Miljø
- miljøer
- ser for seg
- hovedsak
- eksisterende
- Trekk
- Egenskaper
- Til
- Stiftet
- fire
- rammer
- finansiering
- finansieringsrunder
- framtid
- geografisk
- få
- giganten
- GPU
- håndtere
- hjelpe
- Hvordan
- HTTPS
- Tanken
- bilder
- umiddelbar
- pålegge
- in
- inkluderer
- Inkludert
- Infrastruktur
- integrere
- Interface
- inn
- IT
- DET ER
- jpg
- bare
- nøkkel
- Språk
- stor
- lag
- minst
- Bibliotek
- i likhet med
- LLM
- større
- GJØR AT
- administrer
- ledelse
- administrerende
- mange
- Kan..
- bety
- metall
- microservices
- millioner
- modell
- modeller
- Måned
- mer
- mest
- flere
- nødvendig
- Ny
- NGC
- noder
- nå
- Antall
- Nvidia
- of
- tilby
- on
- åpen
- åpen kildekode
- optimalisert
- or
- orkestre
- Annen
- ellers
- enn
- fly
- plattform
- Plattformer
- plato
- Platon Data Intelligence
- PlatonData
- Populær
- portefølje
- mulig
- potensielt
- Produkter
- Profiler
- proprietær
- leverandør
- gir
- hevet
- betrakte
- ressurs
- Ressurser
- Rich
- omtrent
- runder
- Kjør
- rennende
- s
- Sa
- samme
- skalering
- planlegging
- sett
- siden
- enkelt
- Software
- kilde
- spre
- oppstart
- suite
- Støtter
- system
- Tel
- enn
- Det
- De
- deres
- Dem
- Disse
- de
- ting
- tredjeparts
- denne
- De
- til
- sammen
- verktøy
- Kurs
- Turning
- etter
- brukt
- Bruker
- Brukergrensesnitt
- ved hjelp av
- verdsatt
- variasjon
- versjon
- var
- onsdag
- var
- uansett
- om
- hvilken
- vil
- med
- uten
- arbeid
- bekymring
- ville
- Din
- deg selv
- zephyrnet