Gedecentraliseerde rekennetwerken om GPU-tekort in AI aan te pakken: Messari

Gedecentraliseerde rekennetwerken om GPU-tekort in AI aan te pakken: Messari

Gedecentraliseerde computernetwerken om GPU-tekort in AI aan te pakken: Messari PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

De opkomst van kunstmatige intelligentie drijft de chipproductie-industrie tot het uiterste, wat leidt tot een tekort aan GPU's - de basisverwerkingseenheden die machine learning (ML)-modellen aandrijven. 

Volgens het crypto-onderzoeks- en dataspecialist Messari zouden gedecentraliseerde computernetwerken een kant-en-klare oplossing kunnen bieden.

Groeiende vraag en GPU-vereisten

Een nieuw rapport van Messari onderzoekt de uitdagingen waarmee chipfabrikanten zoals Nvidia worden geconfronteerd, die worstelen om de vraag bij te houden in de nasleep van de AI-manie. TD e hoge kosten en beperkte beschikbaarheid van chips vormen zorgen voor de toekomstige inzet van AI-toepassingen.

De AI-industrie is afhankelijk van de GPU's die "essentieel zijn voor het trainen en bevragen van ML-modellen", zegt Messari. Door de piek in de verkoop konden fabrikanten het niet bijbenen, wat leidde tot een tekort.

Er kan echter licht aan het einde van de tunnel zijn, aangezien er mogelijk al een oplossing bestaat in de vorm van gedecentraliseerde computernetwerken.

"Gedecentraliseerde rekennetwerken bieden een veelbelovende oplossing door entiteiten te verbinden met inactieve rekenkracht, waardoor het GPU-tekort wordt verminderd", tweette Messari op woensdag.

Er zijn een aantal cryptocurrency-rekenprojecten die zouden kunnen ingrijpen om aan de vraag te voldoen.

Aan de kant van modeltraining en finetuning wijst Messari naar gensyn en Together. Over modelafleidingsprojecten die door Messari worden aangeprezen, zijn onder meer Giza, geven, KettingML, Modulus Labs en Bittensor.

Compute-netwerken voor meer algemene doeleinden zijn dat wel Akash, Cudos, iexec, Truebit, Kabeljauw en Stroom.

Volgens Messari kan de vraag naar high-end GPU's worden verlicht door de kracht van inactieve GPU's te benutten, waardoor de kosten worden verlaagd en de toegankelijkheid voor AI-ontwikkelaars wordt verbeterd.

Een hele hoop chips

Een recente verslag van onderzoeksbureau TrendForce, onthult dat ChatGPT mogelijk meer dan 30,000 GPU's van Nvidia nodig heeft om zijn trainingsgegevens efficiënt te verwerken.

De schattingen van TrendForce zijn gebaseerd op de rekenmogelijkheden van Nvidia's A100 grafische kaart, geprijsd tussen $ 10,000 en $ 15,000. Nvidia staat op het punt om aanzienlijke inkomsten te genereren, mogelijk oplopend tot $ 300 miljoen, dankzij de grote vraag die wordt aangewakkerd door ChatGPT.

De vraag naar GPU's in AI groeit exponentieel naarmate ML-modellen complexer worden, waardoor grotere parametermodellen en meer rekenkracht nodig zijn. De komst van transformatoren en hun toepassing in taalmodellering heeft de rekenvereisten verder versterkt, waarbij deze eisen elke 3-6 maanden zijn verdubbeld. 

Politieke spanningen en leveringsbeperkingen van de GPU

A Newtown-blog over gedecentraliseerd computergebruik in AI en ML suggereert dat politieke spanningen bijdragen aan de beperkingen in GPU-toevoer. De productie van halfgeleiders is afhankelijk van een complex geheel van mechanische, fysische, chemische, logistieke en commerciële factoren. 

Taiwan, goed voor 63% van de halfgeleidergieterijmarkt, heeft een sterke positie in de wereldwijde toeleveringsketen. Geopolitieke spanningen tussen de VS en China creëren echter onzekerheden en potentiële bedreigingen voor de halfgeleiderindustrie, wat de noodzaak van gediversifieerde toeleveringsketens benadrukt.

De blog bevestigt verder dat cloudproviders, zoals AWS, GCP en Azure, GPU-verhuur aanbieden, maar hulp nodig hebben met prijzen en beschikbaarheid. 

De aanhoudende moeizame betrekkingen tussen de VS en China bieden daarom een ​​belangrijke kans voor gedecentraliseerde computernetwerken.

DEEL DIT BERICHT

Tijdstempel:

Meer van MetaNieuws