Meta dévoile le modèle de segmentation d'images AI, SAM

Meta dévoile le modèle de segmentation d'images AI, SAM

Meta dévoile le modèle de segmentation d'image AI, SAM PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Alphabet Inc's Google a partagé des informations sur les supercalculateurs qu'il utilise pour former des modèles d'IA, affirmant qu'ils sont économes en énergie et plus rapides que Nvidia Puce A100. Google a produit sa puce personnalisée appelée Tensor Processing Unit (TPU), qui en est à sa quatrième génération.

Selon le géant de la technologie, l'entreprise utilise les puces pour plus de 90 % du travail de formation en IA de l'entreprise. Google ajoute que la puce alimente les données via des modèles pour les rendre pratiques lors de tâches telles que des textes humains ou pour générer des images.

Idéalement, Les TPU sont conçus pour accélérer la phase d'inférence des réseaux de neurones profonds (DNN), qui sont utilisés dans de nombreuses applications d'apprentissage automatique telles que la reconnaissance d'images, la reconnaissance vocale, le traitement du langage naturel, etc. Les TPU sont également utilisés pour former les DNN.

A lire également: Twitter dans l'eau chaude légale alors que l'Allemagne menace l'amende

Mardi Google publié un article scientifique expliquant comment il a enfilé plus de 4 000 jetons. Selon l'entreprise, elle a utilisé des commutateurs optiques développés sur mesure pour obtenir des machines individuelles en un seul endroit.

Dans l'article scientifique, Google a déclaré que pour des systèmes de taille comparable, ses puces sont jusqu'à 1.7 fois plus rapides et 1.9 fois plus économes en énergie qu'un système basé sur la puce A100 de Nvidia qui était sur le marché en même temps que le TPU de quatrième génération.

Plus d'améliorations requises

Les analystes sont d'avis que le marché des puces d'inférence de données se développera rapidement à mesure que les entreprises mettront Technologies AI dans leurs produits. Cependant, des entreprises comme Google travaillent déjà sur la façon de limiter les coûts supplémentaires que cela entraînera, et l'un des coûts étant l'électricité.

Grands modèles de langage qui pilotent des produits tels que Google Barde ou OpenAI ChatGPT ont énormément grossi. En fait, ils sont beaucoup trop volumineux pour être stockés sur une seule puce.

En tant que tel, l'amélioration de ces connexions est devenue un point clé de la concurrence entre les entreprises qui construisent des supercalculateurs d'IA.

De plus, ces modèles sont répartis sur des milliers de puces et fonctionnent ensemble pendant des semaines ou plus pour former le modèle.

Le modèle de langage divulgué publiquement le plus important de Google à ce jour, PaLM, a été formé en le répartissant sur deux des 4 000 superordinateurs à puce pendant 50 jours.

Selon la firme, ses supercalculateurs permettent de configurer facilement les connexions entre puces à la volée.

"La commutation de circuits facilite le routage des composants défaillants", ont déclaré le Google Fellow Norm Jouppi et l'ingénieur distingué de Google David Patterson dans un article de blog sur le système.

"Cette flexibilité nous permet même de modifier la topologie de l'interconnexion du supercalculateur pour accélérer les performances d'un modèle ML (machine learning)".

Il n'y a pas de comparaison selon Google

Nvidia domine le marché de la formation de modèles d'IA avec d'énormes quantités de données. Cependant, une fois ces modèles formés, ils sont utilisés plus largement dans ce qu'on appelle «l'inférence» en effectuant des tâches telles que la génération de réponses textuelles aux invites et la décision de savoir si une image contient un chat.

Logiciel majeur les studios utilisent actuellement les processeurs A100 de Nvidia. Les puces A100 sont les puces les plus couramment utilisées par les studios de développement pour les charges de travail d'apprentissage automatique de l'IA.

La A100 convient pour les modèles d'apprentissage automatique qui alimentent des outils comme ChatGPT, IA Bing, ou diffusion stable. Il est capable d'effectuer simultanément de nombreux calculs simples, ce qui est important pour la formation et l'utilisation de modèles de réseaux neuronaux.

Alors que Nvidia a refusé les demandes de commentaires de Reuters, Google a déclaré qu'ils n'avaient pas comparé leur quatrième génération à la puce H100 phare actuelle de Nvidia, car elle est arrivée sur le marché après la puce de Google et est fabriquée avec une technologie plus récente.

Google a également déclaré que la société disposait "d'un pipeline sain de futurs conseils", sans donner plus de détails, mais a laissé entendre qu'elle pourrait travailler sur un nouveau TPU qui concurrencera Nvidia H100.

Bien que Google ne publie que des détails sur son superordinateur maintenant, il est en ligne au sein de l'entreprise depuis 2020 dans un centre de données du comté de Mayes, dans l'Oklahoma.

Google a déclaré que la startup Midjourney a utilisé le système pour former son modèle, qui génère de nouvelles images après avoir reçu quelques mots de texte.

Horodatage:

Plus de MétaActualités