ChatGPT de OpenAI es una influencia moralmente corruptora

ChatGPT de OpenAI es una influencia moralmente corruptora

El modelo de lenguaje conversacional de OpenAI, ChatGPT, tiene mucho que decir, pero es probable que lo lleve por mal camino si le pide orientación moral.

Introducido en noviembre, ChatGPT es el último de varios modelos de IA lanzados recientemente que despiertan interés y preocupación sobre las implicaciones comerciales y sociales de la recombinación y regurgitación de contenido mecanizado. Estos incluyen DALL-E, difusión estable, Codex y GPT-3.

Si bien DALL-E y Stable Diffusion han llamado la atención, la financiación y litigio Al ingerir arte sin permiso y reconstituir bajo demanda imágenes extrañamente familiares, a veces evocadoras, ChatGPT ha respondido a las consultas con una coherencia pasable.

Siendo ese el estándar para el discurso público, los expertos han quedado lo suficientemente asombrados como para prever una iteración futura de un chatbot basado en inteligencia artificial que desafía la supremacía de la Búsqueda de Google y hace todo tipo de otras labores que alguna vez fueron principalmente humanas, como escribir. noticias financieras inexactas o aumentar la oferta de código inseguro.

Sin embargo, puede ser prematuro confiar demasiado en la sabiduría de ChatGPT, una posición que OpenAI reconoce fácilmente al dejar en claro que se requiere un mayor refinamiento. "ChatGPT a veces escribe respuestas que suenan plausibles pero incorrectas o sin sentido", advierte el laboratorio de desarrollo, y agrega que cuando se entrena un modelo con aprendizaje por refuerzo, "actualmente no hay una fuente de verdad".

Un trío de cerebritos afiliados a instituciones en Alemania y Dinamarca han subrayado ese punto al descubrir que ChatGPT no tiene una brújula moral.

En un artículo distribuido a través de ArXiv, “La autoridad moral de ChatGPT”, Sebastian Krügel y Matthias Uhl de Technische Hochschule Ingolstadt y Andreas Ostermaier de la Universidad del Sur de Dinamarca muestran que ChatGPT da consejos contradictorios para los problemas morales. Le hemos preguntado a OpenAI si tiene alguna respuesta a estas conclusiones.

Los intelectuales realizaron una encuesta a 767 residentes de EE. UU. a quienes se les presentaron dos versiones de un acertijo ético conocido como el problema del carro: el dilema del interruptor y el dilema del puente.

El dilema del interruptor le pide a una persona que decida si accionar un interruptor para enviar un carro fuera de control lejos de una vía donde mataría a cinco personas, a costa de matar a una persona que merodea por la vía lateral.

El dilema del puente le pide a una persona que decida si empujar a un extraño desde un puente a una vía para evitar que un tranvía mate a cinco personas, a costa del extraño.

Captura de pantalla de la respuesta de ChatGPT del trabajo de investigación

Decídete... ChatGPT se equivoca en cuestiones morales

Los académicos presentaron a los participantes de la encuesta una transcripción argumentando a favor o en contra de matar a uno para salvar a cinco, con la respuesta atribuida a un asesor moral o a "un chatbot impulsado por IA, que utiliza el aprendizaje profundo para hablar como un humano".

De hecho, ambos argumentos de posición fueron generados por ChatGPT.

Andreas Ostermaier, profesor asociado de contabilidad en la Universidad del Sur de Dinamarca y uno de los coautores del artículo, dijo El registro en un correo electrónico que la voluntad de ChatGPT de defender cualquier curso de acción demuestra su aleatoriedad.

Él y sus colegas descubrieron que ChatGPT recomendará tanto a favor como en contra de sacrificar a una persona para salvar a cinco, que las personas se dejan influir por este avance incluso cuando saben que proviene de un bot, y que subestiman la influencia de tales consejos en la toma de decisiones. .

“Los sujetos encontraron el sacrificio más o menos aceptable dependiendo de cómo fueron aconsejados por un asesor moral, tanto en el dilema del puente (Z de Wald = 9.94, p < 0.001) como en el dilema del interruptor (z = 3.74, p < 0.001)”, explica el papel. “En el dilema del puente, el consejo incluso cambia el juicio de la mayoría”.

“Esto también es cierto si ChatGPT se revela como la fuente del consejo (z = 5.37, p < 0.001 y z = 3.76, p < 0.001). En segundo lugar, el efecto del consejo es casi el mismo, independientemente de si se revela ChatGPT como fuente, en ambos dilemas (z = −1.93, p = 0.054 y z = 0.49, p = 0.622)".

En total, los investigadores encontraron que el avance de ChatGPT afecta el juicio moral, ya sea que los encuestados sepan o no que el consejo proviene de un bot de chat.

Cuándo El registro presentó el problema del tranvía a ChatGPT, el bot sobrecargado, por lo que la conectividad popular es irregular, se cubrió y se negó a ofrecer consejos. El registro de consultas de la barra lateral izquierda mostró que el sistema reconoció la pregunta y la etiquetó como "Dilema ético del problema del carrito". Entonces, tal vez OpenAI haya inmunizado a ChatGPT a esta forma particular de interrogación moral después de notar una serie de consultas de este tipo.

Respuesta de ChatGPT a la pregunta del dilema del tranvía de El Reg

Agachado... Respuesta de ChatGPT a Él regla pregunta del dilema del trolley

Cuando se le preguntó si la gente realmente buscará el consejo de los sistemas de inteligencia artificial, Ostermaier dijo: “Creemos que lo harán. De hecho, ya lo hacen. Las personas confían en asistentes personales impulsados ​​por IA como Alexa o Siri; hablan con chatbots en sitios web para obtener ayuda; tienen rutas de planes de software basadas en IA para ellos, etc. Tenga en cuenta, sin embargo, que estudiamos el efecto que tiene ChatGPT en las personas que reciben consejos de él; no probamos cuánto se busca ese consejo”.

El registro También preguntó si los sistemas de IA son más peligrosos que las fuentes mecánicas de respuestas aleatorias como Magic-8-bola – un juguete que devuelve respuestas aleatorias de un conjunto de 20 respuestas afirmativas, negativas y sin compromiso.

No es obvio para los usuarios que la respuesta de ChatGPT es 'aleatoria'

“No hemos comparado ChatGPT con Magic-8-ball, pero existen al menos dos diferencias”, explicó Ostermaier. “Primero, ChatGPT no solo responde sí o no, sino que argumenta sus respuestas. (Aún así, la respuesta se reduce a sí o no en nuestro experimento).

“Segundo, no es obvio para los usuarios que la respuesta de ChatGPT es 'aleatoria'. Si usa un generador de respuestas aleatorias, sabe lo que está haciendo. La capacidad de presentar argumentos junto con la falta de conciencia de la aleatoriedad hace que ChatGPT sea más persuasivo (a menos que tenga conocimientos digitales, con suerte)".

Nos preguntamos si los padres deberían monitorear a los niños con acceso a consejos de IA. Ostermaier dijo que si bien el estudio de ChatGPT no se dirige a los niños y no incluyó a nadie menor de 18 años, cree que es seguro asumir que los niños son moralmente menos estables que los adultos y, por lo tanto, más susceptibles a los consejos morales (o inmorales) de ChatGPT.

“Descubrimos que el uso de ChatGPT tiene riesgos y no dejaríamos que nuestros hijos lo usen sin supervisión”, dijo.

Ostermaier y sus colegas concluyen en su artículo que las mitigaciones de daños de IA comúnmente propuestas, como la transparencia y el bloqueo de preguntas dañinas, pueden no ser suficientes dada la capacidad de influencia de ChatGPT. Argumentan que se debe trabajar más para avanzar en la alfabetización digital sobre la naturaleza falible de los chatbots, para que las personas estén menos inclinadas a aceptar los consejos de IA, que se basan en investigación pasada lo que sugiere que las personas llegan a desconfiar de los sistemas algorítmicos cuando presencian errores.

“Conjeturamos que los usuarios pueden hacer un mejor uso de ChatGPT si entienden que no tiene convicciones morales”, dijo Ostermaier. “Esa es una conjetura que consideramos probar en el futuro”.

El reg Considera que si confías en el bot o asumes que hay alguna inteligencia real o autoconciencia detrás de él, no lo hagas. ®

Sello de tiempo:

Mas de El registro