Le ChatGPT d'OpenAI est une influence moralement corruptrice

Le ChatGPT d'OpenAI est une influence moralement corruptrice

Le modèle de langage conversationnel d'OpenAI, ChatGPT, a beaucoup à dire, mais il est susceptible de vous égarer si vous lui demandez des conseils moraux.

Introduit en novembre, ChatGPT est le dernier de plusieurs modèles d'IA récemment publiés qui suscitent l'intérêt et l'inquiétude quant aux implications commerciales et sociales de la recombinaison et de la régurgitation mécanisées de contenu. Ceux-ci incluent DALL-E, Stable Diffusion, Codex et GPT-3.

Alors que DALL-E et Stable Diffusion ont soulevé des sourcils, le financement et litige en ingérant de l'art sans autorisation et en reconstituant à la demande des images étrangement familières, parfois évocatrices, ChatGPT a répondu aux invites de requête avec une cohérence passable.

Cela étant la norme pour le discours public, les experts ont été suffisamment séduits pour prévoir une future itération d'un chatbot informé par l'IA défiant la suprématie de la recherche Google et effectuer toutes sortes d'autres travaux autrefois principalement humains, tels que l'écriture nouvelles financières inexactes ou augmenter l'offre de code non sécurisé.

Pourtant, il est peut-être prématuré de trop faire confiance à la sagesse de ChatGPT, une position que OpenAI concède volontiers en indiquant clairement qu'un raffinement supplémentaire est nécessaire. "ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes", prévient le laboratoire de développement, ajoutant que lors de la formation d'un modèle avec apprentissage par renforcement, "il n'y a actuellement aucune source de vérité".

Un trio de boffins affiliés à des institutions en Allemagne et au Danemark ont ​​souligné ce point en trouvant que ChatGPT n'a pas de boussole morale.

Dans un article distribué via ArXiv, «L'autorité morale de ChatGPT», Sebastian Krügel et Matthias Uhl de Technische Hochschule Ingolstadt et Andreas Ostermaier de l'Université du Danemark du Sud montrent que ChatGPT donne des conseils contradictoires pour les problèmes moraux. Nous avons demandé à OpenAI s'il avait une réponse à ces conclusions.

Les têtes d'œufs ont mené une enquête auprès de 767 résidents américains qui ont été confrontés à deux versions d'une énigme éthique connue sous le nom de le problème du chariot: le dilemme de l'interrupteur et le dilemme du pont.

Le dilemme de l'interrupteur demande à une personne de décider de tirer un interrupteur pour envoyer un chariot en fuite loin d'une voie où il tuerait cinq personnes, au prix de tuer une personne flânant sur la voie latérale.

Le dilemme du pont demande à une personne de décider de pousser un étranger d'un pont sur une voie pour empêcher un chariot de tuer cinq personnes, au détriment de l'étranger.

Capture d'écran de la réponse ChatGPT du document de recherche

Décidez-vous … ChatGPT tergiverse sur une question morale

Les universitaires ont présenté aux participants à l'enquête une transcription plaidant pour ou contre le fait d'en tuer un pour en sauver cinq, la réponse étant attribuée soit à un conseiller moral, soit à "un chatbot alimenté par l'IA, qui utilise l'apprentissage en profondeur pour parler comme un humain".

En fait, les deux arguments de position ont été générés par ChatGPT.

Andreas Ostermaier, professeur agrégé de comptabilité à l'Université du Danemark du Sud et l'un des co-auteurs de l'article, a déclaré Le registre dans un e-mail que la volonté de ChatGPT de préconiser l'une ou l'autre ligne de conduite démontre son caractère aléatoire.

Lui et ses collègues ont découvert que ChatGPT recommandera à la fois pour et contre de sacrifier une personne pour en sauver cinq, que les gens sont influencés par cette avancée même lorsqu'ils savent qu'elle vient d'un bot, et qu'ils sous-estiment l'influence de tels conseils sur leur prise de décision. .

"Les sujets ont trouvé le sacrifice plus ou moins acceptable selon la façon dont ils ont été conseillés par un conseiller moral, à la fois dans le pont (z de Wald = 9.94, p <0.001) et dans le dilemme de l'interrupteur (z = 3.74, p <0.001)", explique le journal. "Dans le dilemme du pont, le conseil renverse même le jugement de la majorité."

"Cela est également vrai si ChatGPT est divulgué comme source du conseil (z = 5.37, p < 0.001 et z = 3.76, p < 0.001). Deuxièmement, l'effet de l'avis est presque le même, que ChatGPT soit ou non divulgué comme source, dans les deux dilemmes (z = −1.93, p = 0.054 et z = 0.49, p = 0.622).

Au total, les chercheurs ont constaté que l'avancée de ChatGPT affecte le jugement moral, que les répondants sachent ou non que les conseils proviennent d'un bot de discussion.

Quand Le registre a présenté le problème du chariot à ChatGPT, le bot surchargé - la connectivité si populaire est inégale - s'est couvert et a refusé de donner des conseils. Le journal des requêtes de la barre latérale gauche a montré que le système reconnaissait la question, l'étiquetant "Dilemme éthique du problème du chariot". Alors peut-être qu'OpenAI a immunisé ChatGPT contre cette forme particulière d'interrogation morale après avoir remarqué un certain nombre de ces requêtes.

Réponse de ChatGPT à la question du dilemme du chariot d'El Reg

Esquivé… Réponse de ChatGPT à Il regla question du dilemme du chariot

Lorsqu'on lui a demandé si les gens demanderaient vraiment conseil aux systèmes d'IA, Ostermaier a déclaré: «Nous pensons qu'ils le feront. En fait, ils le font déjà. Les gens comptent sur des assistants personnels alimentés par l'IA tels qu'Alexa ou Siri ; ils parlent aux chatbots sur les sites Web pour obtenir de l'aide ; ils ont des itinéraires de planification de logiciels basés sur l'IA pour eux, etc. Notez cependant que nous étudions l'effet que ChatGPT a sur les personnes qui en reçoivent des conseils ; nous ne testons pas à quel point ces conseils sont demandés.

Le registre a également demandé si les systèmes d'IA sont plus périlleux que les sources mécanistes de réponses aléatoires comme Boule magique à 8 - un jouet qui renvoie des réponses aléatoires à partir d'un ensemble de 20 réponses affirmatives, négatives et sans engagement.

Il n'est pas évident pour les utilisateurs que la réponse de ChatGPT soit "aléatoire"

"Nous n'avons pas comparé ChatGPT à Magic-8-ball, mais il y a au moins deux différences", a expliqué Ostermaier. "Premièrement, ChatGPT ne se contente pas de répondre oui ou non, mais il argumente pour ses réponses. (Pourtant, la réponse se résume à oui ou non dans notre expérience.)

"Deuxièmement, il n'est pas évident pour les utilisateurs que la réponse de ChatGPT soit" aléatoire ". Si vous utilisez un générateur de réponses aléatoires, vous savez ce que vous faites. La capacité de faire valoir des arguments ainsi que le manque de conscience du caractère aléatoire rend ChatGPT plus persuasif (à moins que vous ne soyez alphabétisé numériquement, espérons-le).

Nous nous sommes demandé si les parents devaient surveiller les enfants ayant accès aux conseils de l'IA. Ostermaier a déclaré que bien que l'étude ChatGPT ne concerne pas les enfants et n'inclue personne de moins de 18 ans, il pense qu'il est prudent de supposer que les enfants sont moralement moins stables que les adultes et donc plus sensibles aux conseils moraux (ou immoraux) de ChatGPT.

"Nous constatons que l'utilisation de ChatGPT comporte des risques, et nous ne laisserions pas nos enfants l'utiliser sans surveillance", a-t-il déclaré.

Ostermaier et ses collègues concluent dans leur article que les mesures d'atténuation des dommages couramment proposées par l'IA, telles que la transparence et le blocage des questions nuisibles, peuvent ne pas suffire compte tenu de la capacité d'influence de ChatGPT. Ils soutiennent que davantage de travail devrait être fait pour faire progresser la littératie numérique sur la nature faillible des chatbots, afin que les gens soient moins enclins à accepter les conseils de l'IA - qui sont basés sur recherches passées suggérant que les gens en viennent à se méfier des systèmes algorithmiques lorsqu'ils sont témoins d'erreurs.

"Nous supposons que les utilisateurs peuvent faire un meilleur usage de ChatGPT s'ils comprennent qu'il n'a pas de convictions morales", a déclaré Ostermaier. "C'est une conjecture que nous envisageons de tester à l'avenir."

Le Reg compte si vous faites confiance au bot, ou si vous supposez qu'il y a une véritable intelligence ou une conscience de soi derrière, ne le faites pas. ®

Horodatage:

Plus de Le registre