Un rapport de Stanford sur l'IA révèle qu'une industrie en plein essor est à la croisée des chemins

Un rapport de Stanford sur l'IA révèle qu'une industrie en plein essor est à la croisée des chemins

Le rapport de Stanford sur l'IA révèle qu'une industrie en plein essor est à la croisée des chemins PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

L'Institut de Stanford pour l'intelligence artificielle centrée sur l'humain (HAI) a publié son septième rapport annuel sur l'indice d'IA, qui fait état d'une industrie florissante confrontée à des coûts, des réglementations et des inquiétudes croissantes du public.

La page 502 rapport [PDF] vient du monde universitaire et de l'industrie – le comité directeur de HAI est dirigé par le cofondateur d'Anthropic, Jack Clark, et Ray Perrault, informaticien au Centre d'intelligence artificielle de SRI International – et ne s'attarde donc pas trop sur le brûlage. des arguments avec le feu.

À ce stade, le rapport définit la confidentialité de telle sorte que les individus ont le droit de consentir à ce que les grands modèles linguistiques (LLM) utilisent leurs données. Cependant, il ne propose pas aux entreprises d’IA d’abandonner les modèles existants parce qu’ils ont été construits sans autorisation. Cela suggère la transparence plutôt que la pénitence.

« Obtenir un consentement authentique et éclairé pour la collecte de données de formation est particulièrement difficile avec les LLM, qui s'appuient sur des quantités massives de données », indique le rapport. « Dans de nombreux cas, les utilisateurs ignorent comment leurs données sont utilisées ni l’étendue de leur collecte. Il est donc important de garantir la transparence autour des pratiques de collecte de données.

L'issue de plusieurs procès en cours, comme le cas contre le Copilot de GitHub, pourrait signifier que la transparence ne suffit pas, que les données de formation de l'IA nécessitent une autorisation explicite et peut-être des paiements prohibitifs.

Mais en supposant que l’IA soit là pour rester et qu’il faille la prendre en compte sous sa forme actuelle, le rapport réussit à souligner la promesse et le péril de la prise de décision automatisée.

« Notre mission est de fournir des données impartiales, rigoureusement vérifiées et provenant de nombreuses sources afin que les décideurs politiques, les chercheurs, les dirigeants, les journalistes et le grand public puissent développer une compréhension plus approfondie et nuancée du domaine complexe de l'IA », explique le rapport.

Certaines des principales conclusions du rapport ne sont pas particulièrement surprenantes, comme « l'IA bat les humains sur certaines tâches, mais pas toutes » et « l'industrie continue de dominer la recherche de pointe sur l'IA ».

Sur ce dernier point, le rapport indique que l’industrie a produit 51 modèles d’apprentissage automatique remarquables, contre 15 issus du monde universitaire et 21 issus de collaborations industrie-université.

Alors que les modèles fermés (par exemple, GPT-4, Gemini) ont surpassé les modèles open source sur un ensemble de 10 tests d'IA, les modèles open source sont de plus en plus courants. Sur les 149 modèles de base publiés en 2023, 65.7 % étaient open source, contre 44.4 % en 2022 et 33.3 % en 2021.

La poursuite de cette tendance peut être liée à une autre conclusion importante : « Les modèles Frontier deviennent beaucoup plus chers. » C’est-à-dire qu’il est peu probable que les modèles open source deviennent plus compétitifs par rapport à leurs concurrents fermés si le coût de formation d’un modèle d’IA de pointe devient quelque chose que seuls les mieux financés peuvent envisager.

"Selon les estimations de l'AI Index, les coûts médians de la formation des modèles d'IA de pointe ont presque doublé au cours de la dernière année", indique le rapport. « Les coûts de formation des modèles de pointe ont notamment atteint des niveaux sans précédent. Par exemple, le GPT-4 d'OpenAI a utilisé environ 78 millions de dollars de calcul pour l'entraînement, tandis que le Gemini Ultra de Google a coûté 191 millions de dollars en calcul.

Il y a déjà un doute sur la valeur de l’IA. Une étude de janvier du MIT CSAIL, du MIT Sloan, du Productivity Institute et de l'Institute for Business Value d'IBM trouvé qu'« il n'est économiquement raisonnable de remplacer le travail humain par l'IA que dans environ un quart des emplois où la vision est un élément clé du travail ». Et un récent Wall Street Journal rapport indique que les entreprises technologiques n’ont pas nécessairement trouvé le moyen de rentabiliser leurs investissements en IA.

D'où tout le frais supplémentaires pour les services augmentés par l’IA.

Si l’on considère les conclusions d’autres rapports de HAI telles que « Aux États-Unis, les réglementations en matière d’IA augmentent fortement », la formation sur les modèles d’IA semble susceptible de devenir encore plus exigeante en capital. Aux États-Unis, l’année dernière, indique le rapport, il y avait 25 réglementations liées à l’IA – contre une en 2016 – et celles-ci entraîneront des coûts supplémentaires.

Une autre découverte qui pourrait conduire à davantage de réglementations, et donc à des coûts de mise en conformité, est la façon dont les gens perçoivent l’IA. « Les gens du monde entier sont plus conscients de l’impact potentiel de l’IA – et plus nerveux », indique le rapport. Il cite une augmentation du nombre de personnes qui pensent que l'IA aura un impact sur leur vie au cours des trois à cinq prochaines années (66 pour cent, en hausse de six points de pourcentage) et du nombre de personnes qui sont nerveuses à l'égard de l'IA (52 pour cent, en hausse de 13 pour cent). points).

Une autre source potentielle de problèmes pour les entreprises d’IA vient du manque de normes d’évaluation pour les LLM, une situation qui permet aux entreprises d’IA de sélectionner leurs propres références à tester. "Cette pratique complique les efforts visant à comparer systématiquement les risques et les limites des meilleurs modèles d'IA", indique le rapport.

Le rapport HAI affirme que l'IA améliore la productivité des travailleurs et accélère le progrès scientifique, citant GNoME de DeepMind, « qui facilite le processus de découverte de matériaux ».

S’il a été démontré que l’automatisation de l’IA améliore la productivité dans des tâches spécifiques, son utilité en tant que source d’idées reste un sujet de débat. Comme nous rapporté Récemment, un certain scepticisme subsiste quant à la valeur des prédictions assistées par l'IA pour de nouveaux matériaux viables, par exemple.

Quoi qu’il en soit, de gros paris sont faits sur l’IA. Les investissements dans l’IA générative ont été multipliés par huit, passant de 3 milliards de dollars en 2022 à 25.2 milliards de dollars en 2023. Et les États-Unis sont actuellement la première source de systèmes d’IA, avec 61 modèles d’IA notables en 2023, contre 21 pour l’Union européenne et 15 pour la Chine.

« L’IA fait face à deux avenirs interdépendants », écrivent Clark et Perrault. « Premièrement, la technologie continue de s’améliorer et est de plus en plus utilisée, ce qui a des conséquences majeures sur la productivité et l’emploi. Il peut être utilisé à la fois à bon et à mauvais escient. Dans le deuxième futur, l’adoption de l’IA est limitée par les limites de la technologie.

Au cours des prochaines années, nous devrions voir lequel de ces deux avenirs dominera. ®

Horodatage:

Plus de Le registre