Meta presenta el modelo de segmentación de imágenes de IA, SAM

Meta presenta el modelo de segmentación de imágenes de IA, SAM

Meta presenta el modelo de segmentación de imágenes de IA, SAM PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Alphabet Inc's Google ha compartido información sobre las supercomputadoras que usa para entrenar modelos de IA, alegando que son más eficientes energéticamente y más rápidas que Nvidia Chip A100. Google ha producido su chip personalizado llamado Tensor Processing Unit (TPU), que se encuentra en su cuarta generación.

Según el gigante tecnológico, la empresa utiliza los chips para más del 90 % del trabajo de formación en IA de la empresa. Google agrega que el chip alimenta datos a través de modelos para que sean prácticos en tareas como textos humanos o para generar imágenes.

Idealmente, Los TPU están diseñados para acelerar la fase de inferencia de las redes neuronales profundas (DNN), que se utilizan en muchas aplicaciones de aprendizaje automático, como reconocimiento de imágenes, reconocimiento de voz, procesamiento de lenguaje natural y más. Las TPU también se utilizan para entrenar las DNN.

Lea también: Twitter en agua caliente legal mientras Alemania amenaza multa

el martes google publicó un artículo científico explicando cómo ha ensartado más de 4 000 de las fichas. Según la firma, usó interruptores ópticos desarrollados a medida para colocar máquinas individuales en un solo lugar.

En el artículo científico, Google dijo que para sistemas de tamaño similar, sus chips son hasta 1.7 veces más rápidos y 1.9 veces más eficientes energéticamente que un sistema basado en el chip A100 de Nvidia que estaba en el mercado al mismo tiempo que la cuarta generación de TPU.

Se requieren más mejoras

Los analistas opinan que el mercado de chips de inferencia de datos crecerá rápidamente a medida que las empresas pongan Tecnologías de IA en sus productos. Sin embargo, empresas como Google ya están trabajando en cómo controlar los costos adicionales que se agregarán al hacerlo, y uno de los costos es la electricidad.

Grandes modelos lingüísticos que impulsan productos como De Google Bard o OpenAI ChatGPT han crecido mucho en tamaño. De hecho, son demasiado grandes para almacenarlos en un solo chip.

Por lo tanto, mejorar estas conexiones se ha convertido en un punto clave para la competencia entre las empresas que construyen supercomputadoras de IA.

Además, estos modelos se dividen en miles de chips y funcionan juntos durante semanas o más para entrenar el modelo.

El modelo de lenguaje divulgado públicamente más importante de Google hasta la fecha, PaLM, se entrenó dividiéndolo en dos de las 4 000 supercomputadoras de chips durante 50 días.

Según la firma, sus superordenadores facilitan la configuración de conexiones entre chips sobre la marcha.

"La conmutación de circuitos facilita el enrutamiento de los componentes defectuosos", dijeron Norm Jouppi, miembro de Google, y el ingeniero distinguido de Google, David Patterson, en una publicación de blog sobre el sistema.

“Esta flexibilidad incluso nos permite cambiar la topología de la interconexión de la supercomputadora para acelerar el rendimiento de un modelo de ML (aprendizaje automático)”.

No hay comparación según Google

Nvidia domina el mercado de entrenamiento de modelos de IA con grandes cantidades de datos. Sin embargo, después de entrenar esos modelos, se les da un uso más amplio en lo que se llama "inferencia" al realizar tareas como generar respuestas de texto a las indicaciones y decidir si una imagen contiene un gato.

Software importante Los estudios están utilizando actualmente los procesadores A100 de Nvidia. Los chips A100 son los chips más utilizados por los estudios de desarrollo para las cargas de trabajo de aprendizaje automático de IA.

La A100 es adecuado para modelos de aprendizaje automático que impulsan herramientas como ChatGPT, IA de Bing, o difusión estable. Puede realizar muchos cálculos simples simultáneamente, lo cual es importante para entrenar y usar modelos de redes neuronales.

Si bien Nvidia rechazó las solicitudes de comentarios de Reuters, Google dijo que no compararon su cuarta generación con el actual chip H100 insignia de Nvidia porque llegó al mercado después del chip de Google y está hecho con tecnología más nueva.

Google también dijo que la compañía tiene "una fuente saludable de consejos futuros", sin dar más detalles, pero insinuó que podría estar trabajando en un nuevo TPU que competirá con Nvidia H100.

Aunque Google solo está publicando detalles sobre su supercomputadora ahora, ha estado en línea dentro de la empresa desde 2020 en un centro de datos en el condado de Mayes, Oklahoma.

Google dijo que la startup Midjourney usó el sistema para entrenar su modelo, que genera imágenes frescas después de recibir algunas palabras de texto.

Sello de tiempo:

Mas de MetaNoticias