Au-delà du battage médiatique, l'IA promet un coup de pouce à la recherche scientifique

Au-delà du battage médiatique, l'IA promet un coup de pouce à la recherche scientifique

Au-delà du battage médiatique, l’IA promet un coup de pouce à la recherche scientifique PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

La dernière décennie a vu de grands progrès dans l'application de l'intelligence artificielle à la découverte scientifique, mais les praticiens doivent savoir quand et comment améliorer leur utilisation de l'IA et doivent contester la mauvaise qualité des données.

Du découverte de médicament, science matérielle, l'astrophysique et la fusion nucléaire, les scientifiques utilisant l'IA constatent des résultats en termes d'amélioration de la précision et de réduction du temps d'expérimentation.

Publié aujourd'hui dans la revue de recherche Nature, un document d'une équipe de 30 chercheurs du monde entier évalue les progrès réalisés dans ce domaine très médiatisé et comprend ce qui doit être fait.

Réalisé par Hanchen Wang, boursier postdoctoral à Stanford Computer Science et au groupe Genentech, l'article souligne que l'IA peut aider à "optimiser les paramètres et les fonctions, automatiser les procédures de collecte, de visualisation et de traitement des données, explorer de vastes espaces d'hypothèses candidates pour former théories, et générer des hypothèses et estimer leur incertitude pour suggérer des expériences pertinentes.

Par exemple, en astrophysique, une technique d'apprentissage non supervisée pour les réseaux de neurones pour filtrer le bruit, des auto-encodeurs variationnels ont été utilisés pour estimer les paramètres du détecteur d'ondes gravitationnelles sur la base de modèles de forme d'onde de trou noir pré-entraînés. "Cette méthode est jusqu'à six ordres de grandeur plus rapide que les méthodes traditionnelles, ce qui rend pratique la capture d'événements d'ondes gravitationnelles transitoires", indique le document.

Un autre exemple vient des tentatives de fusion nucléaire. Jonas Degrave, chercheur chez Google DeepMind, a développé un contrôleur d'intelligence artificielle pour réguler la fusion nucléaire par le biais de champs magnétiques dans un réacteur tokamak. Les chercheurs ont montré comment un agent d'IA pouvait prendre des mesures en temps réel des niveaux de tension électrique et des configurations de plasma pour aider à contrôler le champ magnétique et atteindre les cibles expérimentales.

"[Les] approches d'apprentissage par renforcement se sont avérées efficaces pour le contrôle magnétique des plasmas de tokamak, où l'algorithme interagit avec le simulateur de tokamak pour optimiser une politique de contrôle du processus", indique le document.

Bien que prometteuse, l'application de l'IA dans la science doit relever un certain nombre de défis pour se généraliser, selon l'article.

"La mise en œuvre pratique d'un système d'IA implique une ingénierie logicielle et matérielle complexe, nécessitant une série d'étapes interdépendantes allant de la conservation et du traitement des données à la mise en œuvre d'algorithmes et à la conception d'interfaces utilisateur et d'application. Des variations mineures dans la mise en œuvre peuvent entraîner des changements considérables dans les performances et avoir un impact sur le succès de l'intégration des modèles d'IA dans la pratique scientifique. Par conséquent, la normalisation des données et des modèles doit être prise en compte », a-t-il déclaré.

Pendant ce temps, il y a un problème dans la reproduction des résultats assistée par l'IA en raison de l'approche aléatoire ou stochastique de la formation des modèles d'apprentissage en profondeur. « Des repères normalisés et une conception expérimentale peuvent atténuer ces problèmes. Une autre direction vers l'amélioration de la reproductibilité est par le biais d'initiatives open-source qui publient des modèles ouverts, des ensembles de données et des programmes d'éducation », ajoutent les documents de recherche.

Il souligne également que Big Tech a le dessus dans le développement de l'IA pour la science dans la mesure où "les exigences en matière de calcul et de données pour calculer ces mises à jour sont colossales, ce qui entraîne une grande empreinte énergétique et des coûts de calcul élevés".

Les vastes ressources et les investissements de Big Tech dans l'infrastructure informatique et les services cloud "repoussent les limites de l'échelle et de l'efficacité".

Cependant, les établissements d'enseignement supérieur pourraient s'aider d'une meilleure intégration entre plusieurs disciplines tout en exploitant des bases de données historiques uniques et des technologies de mesure qui n'existent pas en dehors du secteur.

Le document appelle à l'élaboration d'un cadre éthique pour se prémunir contre la mauvaise application de l'IA dans la science et une meilleure éducation dans tous les domaines scientifiques.

"Alors que les systèmes d'IA approchent des performances qui rivalisent et surpassent les humains, il devient possible de les utiliser comme un remplacement direct pour les travaux de laboratoire de routine. Cette approche permet aux chercheurs de développer des modèles prédictifs à partir de données expérimentales de manière itérative et de sélectionner des expériences pour les améliorer sans effectuer manuellement des tâches laborieuses et répétitives. Pour soutenir ce changement de paradigme, des programmes éducatifs émergent pour former les scientifiques à la conception, à la mise en œuvre et à l'application de l'automatisation des laboratoires et de l'IA dans la recherche scientifique. Ces programmes aident les scientifiques à comprendre quand l'utilisation de l'IA est appropriée et à éviter les conclusions mal interprétées des analyses de l'IA », indique-t-il.

L'article note que l'essor de l'apprentissage en profondeur au début des années 2010 a "considérablement élargi la portée et l'ambition de ces processus de découverte scientifique".

Moins d'une décennie plus tard, Google DeepMind a affirmé que son logiciel d'apprentissage automatique AlphaFold prédisait rapidement la structure des protéines avec une précision décente, potentiellement un bond en avant dans la découverte de médicaments. Pour que la science universitaire applique des techniques similaires dans un vaste éventail de disciplines, elle doit se ressaisir pour rivaliser avec les poches profondes de Big Tech. ®

Horodatage:

Plus de Le registre