Nvidia lança ‘H200’ com recursos avançados de IA

Nvidia lança ‘H200’ com recursos avançados de IA

Nvidia lança 'H200' com recursos avançados de IA PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

A fabricante de chips Nvidia lançou o chipset H200, que aumentará o desempenho para modelos de linguagem grande (LLMs) e lidará com sistemas de IA maiores.

O novo chip é uma atualização significativa do H100, com velocidade de desempenho quase o dobro, bem como capacidades superiores. A Nvidia indicou que o chip atualizado começará a ser lançado em 2024.

Os detalhes

O novo chip substitui o atual H100 chipset com atualizações significativas, especialmente memória de alta largura de banda, um elemento significativo que define a velocidade de processamento de dados.

O H200 vem na forma de memória, tornando-se a primeira GPU para vir com tecnologia HBM3e. Ele vem com 141 GB de memória a 4.8 terabytes por segundo, o que é muito maior que o H100 com 80 GB de capacidade.

De acordo com o Nvidia, um maior espaço de memória e elementos de processamento de alta velocidade destinam-se a permitir respostas melhores e mais rápidas dos serviços de IA.

A Nvidia não nomeou nenhum fornecedor de memória para o novo chipset, mas possíveis concorrentes como a Micron Technology podem ter fornecido a memória, de acordo com Inglês Jagran.

À medida que a corrida pela IA continua, o chip H200 foi projetado para atender à alta demanda por melhor eficiência e capacidades mais fortes.

Grandes nomes no pipeline

Microsoft Azure, infraestrutura de nuvem Oracle, Google Cloud e Amazon Web Services constituem os primeiros provedores de serviços de nuvem que oferecerão acesso ao chip baseado em H200 no segundo trimestre de 2024. Isso se soma aos provedores especializados de nuvem de IA Lambda, CoreWeave e Vultr.

“Quando você olha para o que está acontecendo no mercado, os tamanhos dos modelos estão se expandindo rapidamente… É outro de nós que continua a introduzir rapidamente a melhor e mais recente tecnologia”, Dion Harris, chefe de marketing de produtos de data center da Nvidia, foi citado como dizendo.

De acordo com a fabricante de chips, o novo H200 levará a um “aumento de desempenho que incluirá quase o dobro da velocidade de interferência no Llama 2 da Meta”.

Veja também: China International Import Expo apresenta dispositivos de IA e metaverso

O significado

O novo H200 chega em meio Restrições de exportação dos EUA em chips de última geração, o que poderia impactar a gigante fabricante de chips.

Estima-se que cerca de 20% a 25% da receita do data center da Nvidia venha da China. Mas a empresa tem pausou novos pedidos de chips de IA da economia asiática e redirecionou os seus sistemas para outros mercados.

Após o anúncio do chipset H200, as ações da Nvidia saltaram até 1.5%, atingindo US$ 486 em 13 de novembro, US$ 12 a menos do seu máximo histórico de US$ 502.

No acumulado do ano, o contador saltou mais de 250%. A trajetória de crescimento da empresa também permaneceu robusta, e ela projeta receitas de US$ 16 bilhões para o terceiro trimestre fiscal, que é cerca de um aumento de 170% em relação ao ano anterior.

A Nvidia controla cerca de 80% do mercado global para chips de IA. Empresas como OpenAI, fabricante do ChatGPT, e Stability AI dependem fortemente da tecnologia Nvidia.

[Conteúdo incorporado]

Carimbo de hora:

Mais de MetaNotícias