Nvidia teki juuri murhan tekoälylle – missä ovat kaikki muut?

Nvidia teki juuri murhan tekoälylle – missä ovat kaikki muut?

Nvidia teki juuri murhan tekoälylle – missä ovat kaikki muut? PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Kommentti Nvidian viimeisin vuosineljännes oli ratkaiseva hetki tekoälyn käyttöönotolle.

Tekniikan titaanin GPU:iden kysyntä ajoi sen tulot uusia korkeuksia, kun yritykset, pilvipalveluntarjoajat ja hyperskaalaajat pyrkivät pysymään merkityksellisinä uudessa tekoälyn maailmanjärjestyksessä. 

Mutta vaikka Nvidian johtajat odottavat saavansa kysynnästä useiden miljardien dollarien tuottoa seuraavien vuosineljännesten aikana, monissa mielessä on kysymys siitä, pystyvätkö Nvidia ja kumppanit rakentamaan tarpeeksi GPU:ita kysynnän tyydyttämiseksi, ja mitä tapahtuu, jos he eivät pysty.

Nvidian talousjohtaja Colette Kress keskusteli talousanalyytikoiden kanssa varma Wall Streetillä, että grafiikkaprosessorijätti teki tiivistä yhteistyötä kumppaneiden kanssa lyhentääkseen kiertoaikoja ja lisätäkseen toimituskapasiteettia. Kun Kress vaadittiin tarkempia tietoja, hän vältti kysymyksen toistuvasti väittäen, että Nv:n varusteisiin kuului niin monia toimittajia, että oli vaikea sanoa, kuinka paljon kapasiteettia he pystyisivät tuomaan kantamaan ja milloin.

Financial Times raporttiSillä välin ehdotti, että Nvidia aikoo vähintään kolminkertaistaa huippuluokan H100-kiihdytinnsä tuotannon vuonna 2024 1.5–2 miljoonaan yksikköön, kun se tänä vuonna on noin puoli miljoonaa. Vaikka tämä on hieno uutinen Nvidian tulokselle, jotkin yritykset eivät odota Nvidian ottamista kiinni, vaan etsivät vaihtoehtoisia arkkitehtuureja.

Ratkaisematon kysyntä luo mahdollisuuksia

Yksi vakuuttavimmista esimerkeistä on Yhdistyneet arabiemiirikunnat G42 Cloud, joka painanut Cerebras Systems rakentaa yhdeksän tekoälysupertietokonetta, jotka pystyvät tuottamaan 36 exaflopsia niukkaa FP16-suorituskykyä vain 100 miljoonalla dollarilla kappaleelta.

Aivot kiihdyttimiä ovat villisti erilaisia ​​kuin Nvidian HGX- ja DGX-järjestelmiä käyttävät näytönohjaimet. Sen sijaan, että Cerebra pakkaa neljä tai kahdeksan grafiikkasuoritinta telineeseen, ne ovat valtavia lautasen kokoisia piilevyjä, jotka sisältävät 850,000 40 ydintä ja 16 Gt SRAM-muistia. Siruvalmistaja väittää, että vain 1 näistä kiihdyttimistä vaaditaan saavuttamaan 16 exaflop harvassa FP500-suorituskyvyssä, mikä arviomme mukaan vaatisi 100 Nvidia HXNUMX:n pohjoispuolella.

Ja muille, jotka haluavat lähteä Nvidian aidatun puutarhan ulkopuolelle, vaihtoehdoista ei ole pulaa. Viimeksi kuulimme, että Amazon on käyttämällä Intelin Gaudi AI -harjoituskiihdyttimet täydentävät omia mukautettuja Trainium-siruja - vaikka ei ole selvää, missä määrin.

Verrattuna Nvidian A100, Intelin Gaudi2-prosessoreihin, jotka käynnistettiin viime toukokuussa väitti tuottavansa noin kaksinkertaisen suorituskyvyn, ainakin ResNet-50-kuvaluokitusmallissa ja BERT:n luonnollisen kielen käsittelymalleissa. Ja niille Kiinassa Intel äskettäin käyttöön sirun leikattu versio myytävänä alueella. Intelin odotetaan julkaisevan vieläkin tehokkaamman version prosessorista, ennustettavasti nimeltään Gaudi3, kilpailemaan Nvidian nykyisen sukupolven H100:n kanssa joskus ensi vuonna.

Sitten on tietysti AMD, joka nauttinut viimeaikaisista korkean profiilin voitoista supertietokoneiden alalla ja on kääntänyt huomionsa tekoälymarkkinoille.

AMD:n Datacenter and AI -tapahtumassa kesäkuussa yksityiskohtainen sen Instinct MI300X, jonka toimitusten on määrä alkaa vuoden lopussa. Kiihdytin sisältää 192 Gt nopeaa HBM3-muistia ja kahdeksan CDNA 3 -grafiikkasuoritinta yhteen pakkaukseen.

Sisaremme sivusto Seuraava alusta arviot siru tuottaa noin 3 petaflopsia FP8-suorituskykyä. Vaikka 75 prosenttia Nvidian H100:sta suorituskyvyn suhteen, MI300X tarjoaa 2.4 kertaa suuremman muistikapasiteetin, mikä voisi antaa asiakkaille mahdollisuuden päästä eroon pienemmästä GPU:sta malliensa kouluttamiseen.

Mahdollisuus saada grafiikkasuoritin, joka ei vain pysty tarjoamaan vakuuttavaa suorituskykyä, vaan jonka sinä voit todella ostaa, on selvästi herättänyt kiinnostusta. AMD:n Q2 tulospuhelun aikana tässä kuussa toimitusjohtaja Lisa Su kehui että yhtiön tekoälytoiminta oli seitsenkertaistunut vuosineljänneksen aikana. "Pelkästään datakeskuksessa odotamme tekoälykiihdyttimien markkinoiden saavuttavan yli 150 miljardia dollaria vuoteen 2027 mennessä", hän sanoi.

Adoption esteet

Joten jos Nvidia ajattelee juuri nyt, että se vastaa vain kolmasosaan tekoälyyn keskittyneen piin kysynnästä, miksi sen kilpailijat eivät ryhdy täyttämään aukkoa ja ansaitsemaan rahaa hypetystä?

Ilmeisin ongelma on ajoitus. AMD:llä tai Intelillä ei ole valmiina kuukausiin kiihdyttimiä, jotka pystyvät haastamaan Nvidian H100:n ainakaan suorituskyvyn suhteen. Asiakkaiden on kuitenkin vielä sen jälkeenkin taisteltava vähemmän kehittyneiden ohjelmistojen kanssa.

Sitten on se tosiasia, että Nvidian kilpailijat taistelevat samoista tarvikkeista ja tuotantokapasiteetista, jotka Nv haluaa varmistaa tai on jo varmistanut. Esimerkiksi AMD luottaa johonkin TSMC aivan kuten Nvidia tekee sirujen valmistuksessa. Vaikka puolijohteiden kysyntä on lamassa Koska viime aikoina yhä harvemmat ihmiset ovat kiinnostuneita hankkimaan tietokoneita, puhelimia ja vastaavia, palvelinkiihdyttimille on kysyntää malleja ja koneoppimissovelluksia varten.

Mutta takaisin koodiin: Nvidian tiivis laitteisto- ja ohjelmistoekosysteemi on ollut olemassa vuosia. Tämän seurauksena Nv:n alaa hallitsevalle CUDA-kehykselle optimoitua koodia on paljon, mukaan lukien monet suosituimmista tekoälymalleista.

Tämä ei tarkoita sitä, etteivätkö kilpailevat sirutalot yritä muuttaa tätä dynamiikkaa. Intelin OneAPI sisältää työkaluja, jotka auttavat käyttäjiä muuntaa Nvidian CUDA:lle SYCL:lle kirjoitettu koodi, joka voi sitten toimia Intelin AI-alustoilla. Samanlaisia ​​ponnisteluja on tehty CUDA-työkuormien muuntamiseksi toimimaan AMD:n Instinct GPU -perheellä HIP API:n avulla.

Monet näistä samoista siruvalmistajista pyytävät apua myös yrityksiltä, ​​kuten Hugging Face, joka kehittää työkaluja ML-sovellusten rakentamiseen vähentääkseen estettä suosittujen mallien käyttämiselle heidän laitteistoissaan. Nämä investoinnit äskettäin ajoi Huggingin arvon yli 4 miljardiin dollariin.

Muut siruvarusteet, kuten Cerebras, ovat pyrkineet sivuuttamaan tämän ongelman kehittämällä mukautettuja tekoälymalleja laitteistolleen, joita asiakkaat voivat hyödyntää sen sijaan, että heidän olisi aloitettava tyhjästä. Taas maaliskuussa, Cerebras ilmoitti Cerebras-GPT, seitsemän LLM:n kokoelma, joiden koko vaihtelee 111 miljoonasta 13 miljardiin parametriin.

Teknisemmille asiakkaille, joilla on resursseja kehittää, optimoida tai siirtää vanhaa koodia uudempiin, vähemmän kehittyneisiin arkkitehtuureihin, vaihtoehtoisen laitteistoalustan valitseminen voi olla kustannussäästöjen tai lyhyempien toimitusaikojen arvoista. Sekä Google että Amazon ovat jo kulkeneet tälle tielle TPU- ja Trainium-kiihdytinensä kanssa.

Kuitenkin niille, joilla ei ole näitä resursseja, infrastruktuurin ottaminen käyttöön ilman todistettua ohjelmistopinoa – oli se kuinka suorituskykyinen tahansa – voidaan kuitenkin pitää vastuuna. Siinä tapauksessa Nvidia jää todennäköisesti turvalliseksi vedoksi. ®

Aikaleima:

Lisää aiheesta Rekisteri