Comment la DARPA veut repenser les fondamentaux de l'IA pour inclure la confiance

Comment la DARPA veut repenser les fondamentaux de l'IA pour inclure la confiance

Comment la DARPA veut repenser les fondamentaux de l'IA pour inclure la confiance dans PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Commentaires Confieriez-vous votre vie à une intelligence artificielle ?

L'état actuel de l'IA est impressionnant, mais le voir comme généralement intelligent est une exagération. Si vous voulez savoir comment se déroule le boom de l'IA, répondez simplement à cette question : faites-vous confiance à l'IA ?

Bard de Google et les grands modèles de langage Bing alimentés par ChatGPT de Microsoft tous les deux LES PLANTES erreurs stupides lors de leurs présentations de lancement qui auraient pu être évitées avec une recherche rapide sur le Web. Des LLM ont également été repérés se tromper sur les faits et repousser les citations incorrectes.

C'est une chose lorsque ces IA sont simplement responsables, par exemple, de divertir les utilisateurs de Bing ou de Bard, nous dit Matt Turek de la DARPA, directeur adjoint du Bureau de l'innovation de l'information. C'est tout autre chose quand des vies sont en jeu, c'est pourquoi l'agence de Turek a lancé une initiative appelée AI Forward pour essayer de répondre à la question de savoir ce que cela signifie exactement de construire un système d'IA auquel nous pouvons faire confiance.

La confiance c'est...?

Dans une interview avec Le registre, Turek a déclaré qu'il aime penser à construire une IA digne de confiance avec une métaphore du génie civil qui implique également de placer une grande confiance dans la technologie : Construire des ponts.

« Nous ne construisons plus de ponts par essais et erreurs », déclare Turek. "Nous comprenons la physique fondamentale, la science fondamentale des matériaux, l'ingénierie système pour dire, j'ai besoin d'être capable de parcourir cette distance et de porter ce genre de poids", ajoute-t-il.

Armé de ces connaissances, dit Turek, le secteur de l'ingénierie a pu développer des normes qui rendent la construction de ponts simple et prévisible, mais nous n'avons pas cela avec l'IA pour le moment. En fait, nous sommes dans une situation encore pire que de simplement ne pas avoir de normes : les modèles d'IA que nous construisons nous surprennent parfois, et c'est mauvais, dit Turek. 

« Nous ne comprenons pas entièrement les modèles. Nous ne comprenons pas ce qu'ils font bien, nous ne comprenons pas les cas extrêmes, les modes de défaillance… ce que cela pourrait entraîner, c'est que les choses tournent mal à une vitesse et à une échelle que nous n'avons jamais vues auparavant. 

Reg les lecteurs n'ont pas besoin d'imaginer des scénarios apocalyptiques dans lesquels une intelligence générale artificielle (IAG) commence à tuer des humains et à faire la guerre pour faire passer le message de Turek. "Nous n'avons pas besoin d'AGI pour que les choses tournent mal", déclare Turek. Il cite des krachs éclairs sur les marchés, comme la chute de la livre sterling en 2016, attribuée à mauvaise prise de décision algorithmique, à titre d'exemple. 

Ensuite, il y a un logiciel comme le pilote automatique de Tesla, apparemment une IA conçue pour conduire une voiture qui aurait été connectée à 70 pour cent d'accidents impliquant la technologie d'aide à la conduite automatisée. Lorsque de tels accidents se produisent, Tesla ne blâme pas l'IA, nous dit Turek, il dit que les conducteurs sont responsables de ce que fait le pilote automatique. 

Selon ce raisonnement, il est juste de dire que même Tesla ne fait pas confiance à sa propre IA. 

Comment la DARPA veut faire avancer l'IA… vers l'avant

"La vitesse à laquelle les systèmes logiciels à grande échelle peuvent fonctionner peut créer des défis pour la surveillance humaine", explique Turek, c'est pourquoi la DARPA a lancé sa dernière initiative d'IA, AI Forward, plus tôt cette année.

Dans un présentation en février, la patronne de Turek, le Dr Kathleen Fisher, a expliqué ce que la DARPA veut accomplir avec AI Forward, à savoir construire cette base de compréhension pour le développement de l'IA similaire à ce que les ingénieurs ont développé avec leurs propres ensembles de normes.

Fisher a expliqué dans sa présentation que la DARPA considère la confiance en l'IA comme étant intégrative, et que toute IA digne de confiance devrait être capable de faire trois choses :

  • Opérer avec compétence, ce que nous certainement, vraiment, définitivement pas encore compris,
  • Interagir de manière appropriée avec les humains, y compris en communiquant pourquoi il fait ce qu'il fait (voir le point précédent pour savoir si cela se passe bien),
  • Se comporter de manière éthique et morale, ce qui, selon Fisher, inclurait la capacité de déterminer si les instructions sont éthiques ou non, et de réagir en conséquence. 

Articuler ce qui définit une IA digne de confiance est une chose. Y arriver demande un peu plus de travail. À cette fin, la DARPA a déclaré qu'elle prévoyait d'investir son énergie, son temps et son argent dans trois domaines: Construire des théories fondamentales, articuler des pratiques d'ingénierie d'IA appropriées et développer des normes pour l'équipe et les interactions homme-IA. 

AI Forward, que Turek décrit moins comme un programme que comme une initiative de sensibilisation communautaire, démarre avec une paire d'ateliers d'été en juin et fin juillet pour rassembler des personnes des secteurs public et privé afin d'aider à étoffer ces trois investissements en IA. domaines. 

La DARPA, dit Turek, a une capacité unique « à rassembler un large éventail de chercheurs de plusieurs communautés, à examiner le problème de manière holistique, à identifier… des moyens convaincants d'avancer, puis à poursuivre avec des investissements qui, selon la DARPA, pourraient mener vers des technologies de transformation.

Pour tous ceux qui espèrent jeter leur chapeau dans le ring pour participer aux deux premiers ateliers AI Forward - désolé - ils sont déjà complets. Turek n'a pas révélé de détails sur qui allait être là, disant seulement que plusieurs centaines de participants sont attendus avec "une diversité d'expériences techniques [et] de perspectives".

À quoi ressemble une IA de défense digne de confiance ?

Si et quand la DARPA parvient à étoffer son modèle de confiance en IA, comment utilisera-t-elle exactement cette technologie ? 

Les applications de cybersécurité sont évidentes, dit Turek, car on pourrait compter sur une IA fiable pour prendre les bonnes décisions à une échelle et à une vitesse auxquelles les humains ne pourraient pas agir. Du côté du grand modèle de langage, il y a la construction d'une IA à laquelle on peut faire confiance pour gérer correctement les informations classifiées, ou digérer et résumer les rapports de manière précise "si nous pouvons supprimer ces hallucinations", ajoute Turek.

Et puis il y a le champ de bataille. Loin d'être uniquement un outil utilisé pour nuire, l'IA pourrait être transformée en applications vitales grâce à des initiatives de recherche telles que Dans Le Moment, un projet de recherche mené par Turek pour soutenir la prise de décision rapide dans des situations difficiles. 

L'objectif d'In The Moment est d'identifier « les attributs clés qui sous-tendent la prise de décision humaine de confiance dans des contextes dynamiques et la représentation informatique de ces attributs », comme le décrit la DARPA sur la page du projet. 

"[In The Moment] est vraiment un programme de recherche fondamentale sur la façon dont vous modélisez et quantifiez la confiance et comment construisez-vous ces attributs qui mènent à la confiance et aux systèmes", déclare Turek.

L'IA armée de ces capacités pourrait être utilisée pour prendre des décisions de triage médical sur le champ de bataille ou dans des scénarios de catastrophe.

La DARPA souhaite que les livres blancs suivent ses deux réunions AI Forward cet été, mais à partir de là, il s'agit de dépasser l'étape de la définition et de l'actualisation, ce qui pourrait certainement prendre un certain temps. 

"Il y aura des investissements de la DARPA qui sortiront des réunions", nous dit Turek. "Le nombre ou la taille de ces investissements dépendra de ce que nous entendrons", ajoute-t-il. ®

Horodatage:

Plus de Le registre