Nvidia только что совершила настоящий фурор в области искусственного интеллекта – где все остальные?

Nvidia только что совершила настоящий фурор в области искусственного интеллекта – где все остальные?

Nvidia только что совершила настоящий фурор в области искусственного интеллекта – где все остальные? PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

КОММЕНТАРИЙ Последний квартал Nvidia стал решающим моментом для внедрения ИИ.

Спрос на графические процессоры технологического гиганта привел к тому, что его доходы выросли до новые высоты, поскольку предприятия, поставщики облачных услуг и гипермасштабировщики изо всех сил пытались сохранить свою актуальность в условиях нового мирового порядка искусственного интеллекта. 

Но хотя руководители Nvidia рассчитывают получить многомиллиардную прибыль от этого спроса в течение следующих нескольких кварталов, у многих возникает вопрос, смогут ли Nvidia и партнеры на самом деле создать достаточно графических процессоров, чтобы удовлетворить спрос, и что произойдет, если они не смогут.

В разговоре с финансовыми аналитиками финансовый директор Nvidia Колетт Кресс уверил Уолл-стрит сообщила, что гигант графических процессоров тесно сотрудничает с партнерами, чтобы сократить время цикла и увеличить мощности поставок. Когда Кресс настаивал на подробностях, он неоднократно уклонялся от вопроса, утверждая, что в оборудовании Nv задействовано так много поставщиков, что трудно сказать, какую мощность они смогут задействовать и когда.

Файнэншл Таймс отчетМежду тем, Nvidia предположила, что планирует как минимум утроить производство своего топового ускорителя H100 в 2024 году до 1.5–2 миллионов единиц по сравнению с примерно полмиллиона в этом году. Хотя это хорошая новость для прибыли Nvidia, если это правда, некоторые компании не ждут, пока Nvidia догонит их, а вместо этого ищут альтернативные архитектуры.

Неудовлетворенный спрос порождает возможности

Одним из наиболее убедительных примеров является облако G42 в Объединенных Арабских Эмиратах, которое постучал Cerebras Systems построит девять суперкомпьютеров искусственного интеллекта, способных в совокупности обеспечить 36 экзафлопс редкой производительности FP16, всего за 100 миллионов долларов за штуку.

Церебраса ускорители сильно отличаются от графических процессоров, используемых в системах Nvidia HGX и DGX. Вместо того, чтобы упаковывать четыре или восемь графических процессоров в шасси для монтажа в стойку, ускорители Cerebra представляют собой огромные кремниевые листы размером с обеденную тарелку, вмещающие 850,000 40 ядер и 16 ГБ SRAM. Производитель чипов утверждает, что всего 1 таких ускорителей необходимы для достижения 16 экзафлопса редкой производительности FP500, а для этого, по нашим оценкам, потребуется около 100 Nvidia HXNUMX.

А для тех, кто хочет выйти за пределы огороженного сада Nvidia, нет недостатка в альтернативах. Последнее, что мы слышали, Amazon через Учебные ускорители искусственного интеллекта Gaudi от Intel в дополнение к собственным чипам Trainium, хотя неясно, в каких объемах.

По сравнению с Nvidia A100 процессоры Intel Gaudi2, которые запустили в мае прошлого года утверждают, что обеспечивают примерно вдвое большую производительность, по крайней мере, в модели классификации изображений ResNet-50 и моделях обработки естественного языка BERT. А для тех, кто в Китае, Intel недавно выпустили в регионе продается урезанная версия чипа. Ожидается, что Intel выпустит еще более мощную версию процессора, как и ожидалось, под названием Gaudi3, чтобы составить конкуренцию нынешнему поколению Nvidia H100 где-то в следующем году.

И, конечно же, есть компания AMD, которая, одержав недавнюю череду громких побед в области суперкомпьютеров, обратила свое внимание на рынок искусственного интеллекта.

На мероприятии Datacenter and AI в июне компания AMD подробный это Instinct MI300X, поставки которого планируется начать к концу года. Ускоритель объединяет 192 ГБ скоростной памяти HBM3 и восемь графических процессоров CDNA 3 в одном корпусе.

Наш родственный сайт Следующая платформа Оценки Чип будет обеспечивать производительность примерно 3 петафлопс в режиме FP8. В то время как MI75X составляет 100 процентов от Nvidia H300 с точки зрения производительности, он предлагает в 2.4 раза больший объем памяти, что может позволить клиентам использовать меньшее количество графических процессоров для обучения своих моделей.

Перспектива графического процессора, который сможет не только обеспечить превосходную производительность, но и который вы сможете на самом деле купить, явно вызвало некоторый интерес. Во время отчета AMD о прибылях и убытках за второй квартал в этом месяце генеральный директор Лиза Су хваленое что объемы деятельности компании в области искусственного интеллекта за квартал выросли в семь раз. «Только в центрах обработки данных мы ожидаем, что к 150 году рынок ускорителей искусственного интеллекта достигнет более 2027 миллиардов долларов», — сказала она.

Барьеры для усыновления

Итак, если Nvidia считает, что сейчас она удовлетворяет только треть спроса на свои кремниевые чипы, ориентированные на искусственный интеллект, почему ее конкуренты не активизируются, чтобы заполнить этот пробел и заработать на шумихе?

Самая очевидная проблема – это вопрос времени. Ни у AMD, ни у Intel не будет ускорителей, способных бросить вызов Nvidia H100, по крайней мере, с точки зрения производительности, в течение нескольких месяцев. Однако даже после этого клиентам все равно придется иметь дело с менее зрелым программным обеспечением.

Кроме того, конкуренты Nvidia будут бороться за те же поставки и производственные мощности, которые Nv хочет обеспечить или уже обеспечила. Например, АМД опирается на TSMC так же, как и Nvidia, занимается производством чипов. Хотя спрос на полупроводники находится в упадке Поскольку в последнее время все меньше людей заинтересованы в покупке ПК, телефонов и т.п., существует значительный спрос на серверные ускорители для обучения моделей и приложений машинного обучения.

Но вернемся к коду: сплоченная экосистема аппаратного и программного обеспечения Nvidia существует уже много лет. В результате имеется много кода, включая многие из самых популярных моделей искусственного интеллекта, оптимизированных для доминирующей в отрасли платформы CUDA компании Nv.

Это не значит, что конкурирующие производители чипов не пытаются изменить эту динамику. Intel OneAPI включает инструменты, помогающие пользователям конвертировать код, написанный для CUDA от Nvidia для SYCL, который затем может работать на наборе платформ искусственного интеллекта Intel. Аналогичные усилия были предприняты для преобразования рабочих нагрузок CUDA для работы на семействе графических процессоров AMD Instinct с использованием HIP API.

Многие из этих же производителей чипов также обращаются за помощью к таким компаниям, как Hugging Face, которая разрабатывает инструменты для создания приложений машинного обучения, чтобы уменьшить барьер для запуска популярных моделей на их оборудовании. Эти инвестиции недавно довела оценку Hugging до более чем 4 миллиардов долларов.

Другие производители чипов, такие как Cerebras, попытались обойти эту конкретную проблему, разработав собственные модели искусственного интеллекта для своего оборудования, которые клиенты могут использовать вместо того, чтобы начинать с нуля. Еще в марте Церебрас объявил Cerebras-GPT, набор из семи LLM размером от 111 до 13 миллиардов параметров.

Для более технических клиентов, у которых есть ресурсы, которые можно посвятить разработке, оптимизации или переносу устаревшего кода на новые, менее зрелые архитектуры, выбор альтернативной аппаратной платформы может стоить потенциальной экономии средств или сокращения времени выполнения заказа. И Google, и Amazon уже пошли по этому пути со своими ускорителями TPU и Trainium соответственно.

Однако для тех, кому не хватает этих ресурсов, использование инфраструктуры без проверенного программного стека (независимо от того, насколько производительным оно может быть) может рассматриваться как обременение. В этом случае Nvidia, скорее всего, останется беспроигрышным вариантом. ®

Отметка времени:

Больше от Регистр