Nvidia presenta 'H200' con capacidades avanzadas de inteligencia artificial

Nvidia presenta 'H200' con capacidades avanzadas de inteligencia artificial

Nvidia presenta 'H200' con capacidades avanzadas de inteligencia artificial PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

El fabricante de chips Nvidia ha presentado el chipset H200, que aumentará el rendimiento de los modelos de lenguajes grandes (LLM) y manejará sistemas de inteligencia artificial más grandes.

El nuevo chip es una mejora significativa con respecto al H100, con una velocidad de rendimiento de casi el doble y mayores capacidades. Nvidia ha indicado que el chip actualizado comenzará a implementarse en 2024.

Los detalles

El nuevo chip reemplaza al actual H100 chipset con importantes actualizaciones, especialmente memoria de gran ancho de banda, un elemento importante que define la velocidad de procesamiento de datos.

El H200 viene en forma de memoria, convirtiéndose en la primera GPU que vendrá con tecnología HBM3e. Está integrado con 141 GB de memoria a 4.8 terabytes por segundo, mucho mayor que el H100 con 80 GB de capacidad.

Según la Nvidia, un mayor espacio de memoria y elementos de procesamiento de alta velocidad están destinados a permitir respuestas mejores y más rápidas de los servicios de IA.

Nvidia no nombró ningún proveedor de memoria para el nuevo chipset, pero posibles competidores como Micron Technology pueden haber proporcionado la memoria, según Inglés Jagrán.

A medida que continúa la carrera de la IA, el chip H200 fue diseñado para satisfacer la gran demanda de mayor eficiencia y capacidades más sólidas.

Grandes nombres en el tintero

Microsoft Azure, la infraestructura en la nube de Oracle, Google Cloud y Amazon Web Services constituyen los proveedores iniciales de servicios en la nube que ofrecerán acceso al chip basado en H200 en el segundo trimestre de 2024. Esto se suma a los proveedores especializados en la nube de IA Lambda, CoreWeave. y Vultr.

"Cuando nos fijamos en lo que está sucediendo en el mercado, los tamaños de los modelos se están expandiendo rápidamente... Es otro de nosotros que continuamos introduciendo rápidamente la última y mejor tecnología", dijo Dion Harris, jefe de marketing de productos de centros de datos de Nvidia, fue citado como diciendo.

Según el fabricante de chips, el nuevo H200 supondrá un "aumento de rendimiento que incluirá casi duplicar la velocidad de interferencia en Meta's Llama 2".

Lea también: La Exposición Internacional de Importaciones de China muestra dispositivos de IA y metaverso

El significado

El nuevo H200 llega en medio Restricciones de exportación de EE. UU. en chips de alta gama, lo que podría afectar al gigante fabricante de chips.

Esto se debe a que se estima que entre el 20% y el 25% de los ingresos del centro de datos de Nvidia provienen de China. Pero la empresa tiene pausado nuevos pedidos de chips AI de la economía asiática y reorientó sus sistemas hacia otros mercados.

Tras el anuncio del chipset H200, las acciones de Nvidia subieron hasta un 1.5%, alcanzando los 486 dólares el 13 de noviembre, 12 dólares menos que su máximo histórico de 502 dólares.

En lo que va del año, el contador ha aumentado más del 250%. La trayectoria de crecimiento de la compañía también se ha mantenido sólida y proyecta $16 mil millones en ingresos para su tercer trimestre fiscal, que es aproximadamente un aumento de 170% sobre el año anterior.

Nvidia controla alrededor del 80% del mercado global para chips de IA. Empresas como OpenAI, fabricante de ChatGPT, y Stability AI dependen en gran medida de la tecnología Nvidia.

[Contenido incrustado]

Sello de tiempo:

Mas de MetaNoticias