Nvidia щойно зробила вбивство на ШІ – де всі інші?

Nvidia щойно зробила вбивство на ШІ – де всі інші?

Nvidia щойно зробила вбивство на ШІ – де всі інші? PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

коментар Останній квартал Nvidia став визначальним моментом для впровадження ШІ.

Попит на графічні процесори технологічного титана збільшив його доходи нові вершини, оскільки підприємства, хмарні постачальники та гіпермасштабувальники намагалися залишатися актуальними в новому світовому порядку ШІ. 

Але хоча керівництво Nvidia очікує отримати багатомільярдні прибутки від цього попиту протягом наступних кількох кварталів, багато хто хвилюється питанням, чи справді Nvidia та партнери можуть створити достатньо графічних процесорів, щоб задовольнити попит, і що станеться, якщо вони не зможуть.

У розмові з фінансовими аналітиками, фінансовий директор Nvidia Колетт Кресс гарантований Уолл-стріт, що гігант графічних процесорів тісно співпрацює з партнерами, щоб скоротити час циклу та збільшити потужність постачання. На вимогу щодо конкретних деталей Кресс неодноразово ухилявся від запитання, стверджуючи, що обладнання Nv залучає стільки постачальників, що важко сказати, яку потужність вони зможуть задіяти та коли.

Financial Times звітом, тим часом, припустив, що Nvidia планує як мінімум потроїти виробництво свого топового прискорювача H100 у 2024 році до 1.5-2 мільйонів одиниць, порівняно з приблизно півмільйона цього року. Хоча це чудова новина для прибутку Nvidia, якщо це правда, деякі компанії не чекають, поки Nvidia наздожене згаяне, а натомість шукають альтернативні архітектури.

Незадоволений попит породжує можливості

Одним із найпереконливіших прикладів є Об’єднані Арабські Емірати G42 Cloud, який прослуховується Cerebras Systems збирається побудувати дев’ять суперкомп’ютерів зі штучним інтелектом із сумарною продуктивністю 36 екзафлопс із низькою продуктивністю FP16 всього за 100 мільйонів доларів за штуку.

Церебрас прискорювачі сильно відрізняються від графічних процесорів, які живлять системи Nvidia HGX і DGX. Замість того, щоб розміщувати чотири чи вісім графічних процесорів у шасі для монтажу в стійку, прискорювачі Cerebra являють собою величезні кремнієві листи розміром із обідню тарілку, які містять 850,000 40 ядер і 16 ГБ SRAM. Виробник чіпів стверджує, що лише 1 із цих прискорювачів потрібні для досягнення 16 екзафлопа низької продуктивності FP500, що, за нашими оцінками, потребує на північ від 100 Nvidia HXNUMX.

А для інших, хто хоче вийти за межі огородженого саду Nvidia, не бракує альтернатив. Останнє, що ми чули, це Amazon використання Навчальні прискорювачі штучного інтелекту Gaudi від Intel для доповнення до власних власних чіпів Trainium — хоча неясно, в яких обсягах.

У порівнянні з A100 від Nvidia, процесорами Gaudi2 від Intel, які запущений у травні минулого року стверджували, що забезпечують приблизно вдвічі більшу продуктивність, принаймні в моделі класифікації зображень ResNet-50 і моделях обробки природної мови BERT. А для тих, хто в Китаї, Intel нещодавно введені продається урізана версія чіпа в обл. Очікується, що наступного року Intel випустить ще потужнішу версію процесора під назвою Gaudi3, яка буде конкурувати з Nvidia H100 поточного покоління.

Крім того, є AMD, яка, отримавши нещодавню серію гучних перемог у сфері суперкомп’ютерів, звернула увагу на ринок ШІ.

На своєму заході Datacenter and AI у червні AMD докладно його Instinct MI300X, який планується почати поставляти до кінця року. Прискорювач містить 192 ГБ швидкої пам’яті HBM3 і вісім графічних процесорів CDNA 3 в одному корпусі.

Наш рідний сайт Наступна платформа Оцінки чіп забезпечить приблизно 3 петафлопс продуктивності FP8. Хоча 75 відсотків від Nvidia H100 з точки зору продуктивності, MI300X пропонує в 2.4 рази більший об’єм пам’яті, що може дозволити клієнтам використовувати менше GPU для навчання своїх моделей.

Перспектива графічного процесора, який не тільки може забезпечити переконливу продуктивність, але й який ви можете насправді купувати, явно викликав певний інтерес. Під час розмови про прибутки AMD за 2 квартал цього місяця генеральний директор Ліза Су хвалився що залучення компанії до ШІ зросло в сім разів протягом кварталу. «Ми очікуємо, що ринок прискорювачів штучного інтелекту до 150 року лише в центрі обробки даних досягне понад 2027 мільярдів доларів», — сказала вона.

Перешкоди для усиновлення

Отже, якщо Nvidia вважає, що зараз вона задовольняє лише третину попиту на свій кремній, орієнтований на штучний інтелект, чому її конкуренти не активізуються, щоб заповнити прогалину та заробити на ажіотажі?

Найбільш очевидною проблемою є час. Ні AMD, ні Intel не матимуть прискорювачів, здатних кинути виклик H100 від Nvidia, принаймні з точки зору продуктивності, протягом кількох місяців. Однак навіть після цього клієнтам все одно доведеться боротися з менш зрілим програмним забезпеченням.

Крім того, є той факт, що суперники Nvidia будуть боротися за ті самі поставки та виробничі потужності, які Nv хоче забезпечити або вже забезпечила. Наприклад, AMD спирається на TSMC так само, як і Nvidia для виготовлення чіпів. Хоча попит на напівпровідник знаходиться в спаді Оскільки останнім часом менше людей зацікавлені в придбанні ПК, телефонів тощо, існує значний попит на прискорювачі серверів для навчання моделей і роботи програм машинного навчання.

Але повернемося до коду: тісна екосистема обладнання та програмного забезпечення Nvidia існує вже багато років. Як наслідок, існує багато коду, включно з багатьма найпопулярнішими моделями штучного інтелекту, оптимізованими для домінуючої в галузі фреймворку CUDA Nv.

Це не означає, що конкуруючі виробники мікросхем не намагаються змінити цю динаміку. OneAPI від Intel містить інструменти, які допомагають користувачам конвертувати код, написаний для CUDA від Nvidia до SYCL, який потім може працювати на наборі платформ штучного інтелекту Intel. Подібні зусилля були зроблені для перетворення робочих навантажень CUDA для роботи на сімействі AMD Instinct GPU за допомогою HIP API.

Багато з цих самих виробників мікросхем також звертаються за допомогою до таких компаній, як Hugging Face, яка розробляє інструменти для створення програм ML, щоб зменшити перешкоди для запуску популярних моделей на їх апаратному забезпеченні. Ці інвестиції нещодавно підняв оцінку Hugging до понад 4 мільярдів доларів.

Інші підрозділи чіпів, як-от Cerebras, намагалися обійти цю конкретну проблему, розробляючи власні моделі штучного інтелекту для свого апаратного забезпечення, які клієнти можуть використовувати замість того, щоб починати з нуля. Ще в березні, Cerebras оголошений Cerebras-GPT, колекція із семи LLM розміром від 111 мільйонів до 13 мільярдів параметрів.

Для більш технічних клієнтів, які мають ресурси для розробки, оптимізації або перенесення застарілого коду на нові, менш зрілі архітектури, вибір альтернативної апаратної платформи може бути вартим потенційної економії коштів або скорочення часу виконання. І Google, і Amazon вже пішли цим шляхом зі своїми прискорювачами TPU та Trainium відповідно.

Однак для тих, кому бракує цих ресурсів, використання інфраструктури без перевіреного стека програмного забезпечення – незалежно від того, наскільки продуктивним воно може бути – може розглядатися як обмеження. У цьому випадку Nvidia, ймовірно, залишиться надійним вибором. ®

Часова мітка:

Більше від Реєстр