Un site à but non lucratif crée un site pour suivre les incidents croissants liés à l'IA

Un site à but non lucratif crée un site pour suivre les incidents croissants liés à l'IA

Un site à but non lucratif crée un site pour suivre l'augmentation des incidents d'IA PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Interview Faux satellite de Donald Trump soutenu par des électeurs noirs inventés, des collégiens créant des deepfakes pornographiques de leurs camarades de classe et le chatbot Gemini de Google défaut pour générer des images précises de Blancs.

Voici quelques-unes des dernières catastrophes répertoriées sur le Base de données d'incidents d'IA – un site Web gardant un œil sur toutes les différentes façons dont la technologie tourne mal.

Initialement lancée sous la forme d'un projet sous les auspices du Partnership On AI, un groupe qui tente de garantir que l'IA profite à la société, la base de données sur les incidents d'IA est désormais une organisation à but non lucratif financée par Underwriters Laboratories – le plus grand et le plus ancien (fondé en 1894) indépendant. laboratoire d'essais aux États-Unis. Il teste toutes sortes de produits – des meubles aux souris d’ordinateur – et son site Web a répertorié jusqu’à présent plus de 600 incidents uniques liés à l’automatisation et à l’IA.

"Il existe une énorme asymétrie d'information entre les fabricants de systèmes d'IA et les consommateurs publics - et ce n'est pas juste", a déclaré Patrick Hall, professeur adjoint à la George Washington University School of Business, qui siège actuellement au conseil d'administration de la base de données d'incidents d'IA. . Il a dit Le registre: "Nous avons besoin de plus de transparence, et nous pensons que c'est notre travail de simplement partager cette information."

La base de données d'incidents AI est calquée sur le programme CVE mis en place par l'association à but non lucratif MITREou de la Administration nationale de la sécurité des transports routiers site Web signalant publiquement les vulnérabilités en matière de cybersécurité et les accidents de véhicules. « Chaque fois qu'il y a un accident d'avion, un accident de train ou un incident majeur de cybersécurité, il est devenu courant depuis des décennies d'enregistrer ce qui s'est passé afin que nous puissions essayer de comprendre ce qui n'a pas fonctionné et ne pas le répéter. »

Le site Web est actuellement géré par une dizaine de personnes, ainsi que par une poignée de bénévoles et de sous-traitants qui examinent et publient en ligne les incidents liés à l'IA. Heather Frase, chercheuse principale à Georgetown Centre pour la sécurité et les technologies émergentes axé sur l'évaluation de l'IA et directeur de la base de données des incidents d'IA, a affirmé que le site Web est unique en ce sens qu'il se concentre sur les impacts réels des risques et des dommages de l'IA – et pas seulement sur les vulnérabilités et les bogues des logiciels.

L'organisation collecte actuellement les incidents issus de la couverture médiatique et examine les problèmes signalés par les internautes sur Twitter. La base de données des incidents AI a enregistré 250 incidents uniques avant la sortie de ChatGPT en novembre 2022 et répertorie désormais plus de 600 incidents uniques.

La surveillance des problèmes liés à l'IA au fil du temps révèle des tendances intéressantes et pourrait permettre aux gens de comprendre les méfaits réels et actuels de la technologie.

Le Hall de l'Université George Washington a révélé qu'environ la moitié des rapports de la base de données sont liés à l'IA générative. Certaines d’entre elles sont des « choses drôles et idiotes » comme produits douteux vendu sur Amazon intitulé : « Je ne peux pas répondre à cette demande » – un signe clair que le vendeur a utilisé un grand modèle linguistique pour rédiger les descriptions – ou d'autres instances de spam généré par l'IA. Mais certains sont « vraiment plutôt déprimants et sérieux » – comme un robot-taxi Cruise qui écrase et traîne une femme sous ses roues lors d’un accident à San Francisco.

"L'IA est essentiellement un Far West en ce moment, et l'attitude est d'aller vite et de casser les choses", a-t-il déploré. On ne sait pas exactement comment la technologie façonne la société, et l'équipe espère que la base de données des incidents d'IA pourra fournir des informations sur la manière dont elle est utilisée à mauvais escient et mettre en évidence les conséquences imprévues – dans l'espoir que les développeurs et les décideurs politiques soient mieux informés afin qu'ils puissent améliorer leurs modèles ou réglementer. les risques les plus pressants.

« Il y a beaucoup de battage médiatique. Les gens parlent de risque existentiel. Je suis sûr que l'IA peut présenter des risques très graves pour la civilisation humaine, mais il est clair pour moi que certains de ces risques plus réels – comme de nombreuses blessures associées aux voitures autonomes ou, vous savez, la perpétuation de préjugés grâce aux algorithmes utilisés dans le domaine du crédit à la consommation ou de l'emploi. C'est ce que nous voyons.

« Je sais qu'il nous manque beaucoup de choses, n'est-ce pas ? Tout n’est pas rapporté ou capturé par les médias. Bien souvent, les gens ne se rendent même pas compte que les dommages qu’ils subissent proviennent d’une IA », a observé Frase. «Je m'attends à ce que les dommages physiques augmentent beaucoup. Nous constatons [principalement] des préjudices psychologiques et d’autres préjudices intangibles provoqués par de grands modèles de langage – mais une fois que nous disposerons de la robotique générative, je pense que les préjudices physiques augmenteront considérablement.

Frase est particulièrement préoccupé par la manière dont l’IA pourrait éroder les droits de l’homme et les libertés civiles. Elle pense que la collecte des incidents liés à l’IA montrera si les politiques ont rendu la technologie plus sûre au fil du temps.

"Il faut mesurer les choses pour arranger les choses", a ajouté Hall.

L'organisation est toujours à la recherche de bénévoles et se concentre actuellement sur la capture d'un plus grand nombre d'incidents et la sensibilisation. Frase a souligné que les membres du groupe ne sont pas des fanatiques de l'IA : « Nous sommes probablement assez anti-IA, mais ce n'est pas le cas. En fait, nous voulons l'utiliser. Nous voulons juste les bonnes choses.

Hall était d’accord. "Pour faire avancer la technologie, il suffit que quelqu'un fasse le travail pour la rendre plus sûre", a-t-il déclaré. ®

Horodatage:

Plus de Le registre