Nvidia представляет H200 с расширенными возможностями искусственного интеллекта

Nvidia представляет H200 с расширенными возможностями искусственного интеллекта

Nvidia представляет H200 с расширенными возможностями искусственного интеллекта PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Производитель чипов Nvidia представил набор микросхем H200, который повысит производительность больших языковых моделей (LLM) и будет работать с более крупными системами искусственного интеллекта.

Новый чип представляет собой значительную модернизацию H100, обеспечивая почти удвоенную производительность и более широкие возможности. Nvidia сообщила, что обновленный чип начнет выпускаться в 2024 году.

Специфика

Новый чип заменяет нынешний. H100 набор микросхем со значительными обновлениями, особенно памятью с высокой пропускной способностью, важным элементом, определяющим скорость обработки данных.

H200 поставляется в виде памяти, стать первым графическим процессором будет оснащен технологией HBM3e. Он оснащен 141 ГБ памяти со скоростью 4.8 терабайт в секунду, что намного больше, чем у H100 с емкостью 80 ГБ.

По Nvidia, больший объем памяти и высокоскоростные элементы обработки предназначены для обеспечения более качественного и быстрого реагирования служб искусственного интеллекта.

Nvidia не назвала какого-либо поставщика памяти для нового чипсета, но, по словам компании, ее могли предоставить возможные конкуренты, такие как Micron Technology. Английский Джагран.

Поскольку гонка ИИ продолжается, чип H200 был разработан с учетом высокого спроса на более высокую эффективность и более широкие возможности.

Громкие имена в разработке

Microsoft Azure, облачная инфраструктура Oracle, Google Cloud и Amazon Web Services входят в число первых поставщиков облачных услуг, которые предложат доступ к чипу на базе H200 во втором квартале 2024 года. Это в дополнение к специализированным поставщикам облачных услуг искусственного интеллекта Lambda и CoreWeave. и Вультр.

«Когда вы смотрите на то, что происходит на рынке, размеры моделей быстро увеличиваются… Это еще один из нас, продолжающий быстро внедрять новейшие и лучшие технологии», — Дион Харрис, руководитель отдела маркетинга продуктов для центров обработки данных компании Nvidia, был процитирован.

По словам производителя чипов, новый H200 приведет к «повышению производительности, которое будет включать почти удвоение скорости помех на Llama 2 от Meta».

Читайте также: Китайская международная выставка импорта демонстрирует устройства искусственного интеллекта и метавселенную

Значение

Новый H200 выходит на рынок Ограничения экспорта США на высококлассных чипах, что может повлиять на гиганта-производителя чипов.

По оценкам, от 20% до 25% доходов Nvidia от центров обработки данных поступает из Китая. Но у компании есть приостановила заказы на новые чипы искусственного интеллекта из азиатской экономики и перенаправила свои системы на другие рынки.

После анонса чипсета H200 акции Nvidia подскочили на целых 1.5%, достигнув 486 ноября $13, что на $12 меньше исторического максимума в $502.

С начала года счетчик подскочил более чем на 250%. Траектория роста компании также остается устойчивой, и она прогнозирует доход в размере 16 миллиардов долларов в третьем квартале финансового года, что составляет около увеличение 170% по сравнению с предыдущим годом.

NVIDIA контролирует около 80% глобальный рынок для чипов AI. Такие компании, как производитель ChatGPT OpenAI и Stability AI, в значительной степени полагаются на технологии Nvidia.

[Встраиваемое содержимое]

Отметка времени:

Больше от МетаНьюс