Alimentez le feu de l'IA avec la centralisation PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Alimentez le feu de l'IA avec la centralisation

Fonctionnalité sponsorisée Un flux constant de technologies révolutionnaires et de découvertes – le feu, l'agriculture, la roue, l'imprimerie et Internet, pour n'en citer que quelques-unes – a profondément façonné le développement humain et la civilisation. Et ce cycle d'innovation se poursuit avec l'intelligence artificielle (IA). 

La société de recherche IDC est allée jusqu'à conclure que l'IA est vraiment la réponse à presque "tout". Rasmus Andsbjerg, vice-président associé, données et analyses chez IDC, déclare : "La réalité est que l'IA offre des solutions à tout ce à quoi nous sommes confrontés en ce moment. L'IA peut être une source d'accélération des parcours de transformation numérique, permettre des économies de coûts en période de taux d'inflation vertigineux et soutenir les efforts d'automatisation en période de pénurie de main-d'œuvre.

Certes, et dans tous les secteurs et toutes les fonctions, les organisations d'utilisateurs finaux commencent à découvrir les avantages de l'IA, à mesure que des algorithmes et une infrastructure sous-jacente de plus en plus puissants émergent pour permettre une meilleure prise de décision et une productivité accrue. 

Les revenus mondiaux du marché de l'intelligence artificielle (IA), y compris les logiciels, le matériel et les services associés pour les applications centrées sur l'IA et non centrées sur l'IA, ont totalisé 383.3 milliards de dollars en 2021. Cela a augmenté de 20.7 % par rapport à l'année précédente, selon le plus récent International Data Corporation (IDC) Suivi semestriel mondial de l'intelligence artificielle.

De même, le déploiement de logiciels d'IA dans le cloud continue d'afficher une croissance régulière. IDC s'attend à ce que les versions cloud des logiciels d'IA nouvellement achetés dépassent les déploiements sur site en 2022.

Le ciel est la limite pour l'IA

Le Dr Ronen Dar, directeur de la technologie du spécialiste de l'IA Run:ai, qui a créé une plate-forme de gestion de calcul pour l'IA, estime que le ciel est la limite pour le secteur naissant de l'IA d'entreprise. 

"L'IA est un marché qui, selon nous, se développe très rapidement. Et en termes d'entreprises, nous constatons une demande et une adoption de l'apprentissage automatique et de l'IA. Et je pense qu'en ce moment il y a une nouvelle technologie ici qui apporte de nouvelles capacités qui vont changer le monde ; qui vont révolutionner les entreprises », note Dar. 

Il existe également une compréhension de plus en plus claire de la nécessité de commencer à explorer et à expérimenter l'IA et de comprendre comment intégrer l'IA dans les modèles commerciaux.

Dar pense que l'IA peut apporter des "avantages incroyables" pour améliorer les processus métier existants de l'entreprise : "En termes d'optimisation et de vérification de l'activité actuelle, nous voyons de nombreux cas d'utilisation autour de l'IA et de l'apprentissage automatique qui améliorent les opérations et la façon dont les décisions sont prises. autour de l'offre et de la demande.

Il souligne que les nouveaux modèles d'apprentissage en profondeur basés sur les réseaux de neurones peuvent améliorer les processus, la prise de décision et la précision des processus commerciaux critiques tels que la détection des fraudes dans le secteur des services financiers. La santé est un autre secteur où le potentiel de l'IA est "énorme", notamment pour aider les médecins à prendre de meilleures décisions cliniques et à découvrir et développer de nouveaux médicaments. 

Et, en regardant plus loin, Dar prédit que la technologie de l'IA contribuera à offrir de toutes nouvelles opportunités commerciales qui n'existent pas actuellement dans des secteurs tels que les véhicules autonomes et les jeux immersifs. 

Obstacles infrastructurels à surmonter

Malgré le potentiel évident de l'IA et de l'apprentissage automatique dans l'entreprise, Dar reconnaît que le déploiement commercial de l'IA est freiné par des problèmes liés à la fourniture d'infrastructures. Il conseille aux entreprises d'examiner en premier lieu la manière dont l'IA pénètre dans une organisation.

En règle générale, cela implique un processus non coordonné, département par département, qui voit différentes équipes provisionner la technologie et les ressources de manière indépendante, ce qui conduit à des déploiements en silo. Le service informatique ne peut pas contrôler efficacement ces projets ad hoc et n'a pas de visibilité sur ce qui se passe. Et cela rend difficile, voire impossible, le calcul du retour sur investissement des dépenses en infrastructure d'IA. 

« C'est le problème classique : à l'époque c'était le shadow IT et maintenant c'est le shadow AI », dit Dar. 

De plus, l'infrastructure de pointe nécessaire à l'IA/ML est un investissement, car les entreprises ont besoin d'un puissant matériel informatique accéléré par GPU pour traiter des données très complexes et former des modèles. 

« Les équipes d'IA ont besoin de beaucoup de puissance de calcul pour former des modèles, généralement à l'aide de GPU, qui sont des ressources de centre de données haut de gamme qui peuvent être cloisonnées et ne pas être utilisées efficacement », explique Dar. "Cela peut entraîner beaucoup d'argent gaspillé à coup sûr." 

Cette infrastructure cloisonnée peut entraîner des niveaux d'utilisation inférieurs à 10 %, par exemple.

Selon le sondage Run:ai, L'enquête 2021 sur l'état de l'infrastructure de l'IA, publié en octobre 2021, 87 % des personnes interrogées ont déclaré rencontrer un certain niveau de problèmes d'allocation de ressources GPU/calcul, 12 % affirmant que cela se produit souvent. En conséquence, 83 % des entreprises interrogées ont déclaré qu'elles n'utilisaient pas pleinement leur matériel GPU et IA. En fait, près des deux tiers (61%) ont indiqué que leur matériel GPU et IA est pour la plupart à des niveaux d'utilisation «modérés».

La centralisation de l'IA

Pour résoudre ces problèmes, Dar préconise de centraliser la fourniture de ressources d'IA. Run:AI a développé une plate-forme de gestion de calcul pour l'IA qui fait exactement cela, centralisant et virtualisant la ressource de calcul GPU. En regroupant les GPU dans une seule couche virtuelle et en automatisant la planification de la charge de travail pour une utilisation à 100 %, cette approche offre des avantages par rapport aux systèmes cloisonnés au niveau départemental. 

La centralisation de l'infrastructure redonne le contrôle et la visibilité, tout en libérant les data scientists des frais généraux liés à la gestion de l'infrastructure. Les équipes d'IA partagent une ressource de calcul d'IA universelle qui peut être augmentée et réduite de manière dynamique à mesure que la demande augmente ou diminue, éliminant ainsi les goulots d'étranglement de la demande et les périodes de sous-utilisation. 

Selon Dar, cette approche peut aider les organisations à tirer le meilleur parti de leur matériel et libérer les data scientists des contraintes liées à la limitation des ressources sous-jacentes. Tout cela signifie qu'ils peuvent exécuter plus de tâches et mettre plus de modèles d'IA en production. 

Un exemple est fourni par le Centre d'imagerie médicale et d'intelligence artificielle de Londres pour les soins de santé basés sur la valeur, dirigé par le King's College de Londres et basé à l'hôpital St. Thomas. Il utilise des images médicales et des données de santé électroniques pour former des algorithmes sophistiqués d'apprentissage en profondeur pour la vision par ordinateur et le traitement du langage naturel. Ces algorithmes sont utilisés pour créer de nouveaux outils pour un dépistage efficace, un diagnostic plus rapide et des thérapies personnalisées.

Le Centre s'est rendu compte que son infrastructure d'IA héritée souffrait de problèmes d'efficacité : l'utilisation totale du GPU était inférieure à 30 % avec des périodes d'inactivité "significatives" pour certains composants. Après avoir décidé de résoudre ces problèmes en adoptant un modèle de provisionnement de calcul IA centralisé basé sur la plate-forme Run:ai, son utilisation du GPU a augmenté de 110 %, avec des améliorations parallèles de la vitesse d'expérimentation et de l'efficacité globale de la recherche.

"Nos expériences peuvent prendre des jours ou des minutes, en utilisant un filet de puissance de calcul ou un cluster entier", explique le Dr M. Jorge Cardoso, professeur associé et maître de conférences en IA au King's College de Londres et CTO du AI Centre. "La réduction du délai d'obtention des résultats garantit que nous pouvons poser et répondre à des questions plus critiques sur la santé et la vie des gens", 

La centralisation des ressources GPU IA a également apporté de précieux avantages commerciaux à Wayve, une entreprise basée à Londres qui développe des logiciels d'IA pour les voitures autonomes. Sa technologie est conçue pour ne pas dépendre de la détection, mais se concentre plutôt sur une plus grande intelligence, pour une meilleure conduite autonome dans les zones urbaines denses.

La boucle d'apprentissage de la flotte de Wayve implique un cycle continu de collecte de données, de conservation, de formation de modèles, de re-simulation et de modèles de licence avant le déploiement dans la flotte. La principale consommation de calcul GPU de l'entreprise provient de la formation à la production Fleet Learning Loop. Il forme la base de référence du produit avec l'ensemble de données complet et se recycle continuellement pour collecter de nouvelles données via des itérations de la boucle d'apprentissage de la flotte.

L'entreprise a commencé à réaliser qu'elle souffrait d'une « horreur » de planification du GPU : bien que près de 100 % de ses ressources GPU disponibles aient été allouées aux chercheurs, moins de 45 % ont été utilisées lorsque les tests ont été initialement effectués. 

"Parce que les GPU étaient assignés de manière statique aux chercheurs, lorsque les chercheurs n'utilisaient pas les GPU qui leur étaient assignés, les autres ne pouvaient pas y accéder, créant l'illusion que les GPU pour la formation de modèles étaient à pleine capacité même si de nombreux GPU étaient inactifs", note Wayve. 

Travailler avec Run:ai a résolu ce problème en supprimant les silos et en éliminant l'allocation statique des ressources. Des pools de GPU partagés ont été créés, permettant aux équipes d'accéder à plus de GPU et d'exécuter plus de charges de travail, ce qui a conduit à une amélioration de 35 % de leur utilisation. 

Améliorations de l'efficacité du processeur miroir

Reflétant la manière dont VMware a apporté des améliorations d'efficacité substantielles à la façon dont les processeurs des serveurs sont utilisés à leur capacité maximale au cours des dernières années, de nouvelles innovations sont désormais mises en place pour optimiser l'efficacité de l'utilisation du GPU pour les charges de travail de calcul de l'IA. 

"Si vous pensez à la pile logicielle qui s'exécute sur les processeurs, elle a été construite avec beaucoup de VMware et de virtualisation", explique Dar. "Les GPU sont relativement nouveaux dans le centre de données, et les logiciels d'IA et de virtualisation - tels que NVIDIA IA Entreprise – est également un développement récent. 

"Nous apportons une technologie de pointe dans ce domaine avec des fonctionnalités telles que le GPU fractionné, l'échange de tâches et. permettant aux charges de travail de partager efficacement les GPU », déclare Dar, ajoutant que d'autres améliorations sont prévues.

Run:ai travaille en étroite collaboration avec NVIDIA pour améliorer et simplifier l'utilisation des GPU dans l'entreprise. La collaboration la plus récente inclut l'activation de la flexibilité GPU multi-cloud pour les entreprises utilisant des GPU dans le cloud, et l'intégration avec Serveur d'inférence NVIDIA Triton logiciel pour simplifier le processus de déploiement des modèles en production.

De la même manière que les innovations majeures au cours de l'histoire ont eu de profonds impacts sur la race humaine et le monde, Dar note que la puissance de l'IA devra être exploitée avec soin pour maximiser ses avantages potentiels, tout en gérant les inconvénients potentiels. Il compare l'IA à l'innovation la plus primitive de toutes : le feu. 

« C'est comme le feu qui a apporté beaucoup de grandes choses et changé des vies humaines. Le feu a également apporté un danger. Ainsi, les êtres humains ont compris comment vivre avec le feu », explique Dar. "Je pense que c'est aussi ici dans l'IA ces jours-ci." 

Sponsorisé par Run:ai.

Horodatage:

Plus de Le registre