Cómo el estudio de la sensibilidad animal podría ayudar a resolver el rompecabezas ético de la inteligencia artificial consciente

Cómo el estudio de la sensibilidad animal podría ayudar a resolver el rompecabezas ético de la inteligencia artificial consciente

Cómo el estudio de la sensibilidad animal podría ayudar a resolver el rompecabezas ético de la IA sensible PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Inteligencia Artificial ha progresado tan rápidamente que incluso algunos de los científicos responsables de muchos desarrollos clave están preocupados por el ritmo del cambio. A principios de este año, más de 300 profesionales que trabajan en IA y otras figuras públicas preocupadas emitieron un advertencia contundente sobre el peligro que representa la tecnología, comparando el riesgo con el de una pandemia o una guerra nuclear.

Al acecho justo debajo de la superficie de estas preocupaciones está la cuestión de la conciencia de la máquina. Incluso si no hay "nadie en casa" dentro de las IA de hoy, algunos investigadores se preguntan si algún día podrán exhibir un atisbo de conciencia, o más. Si eso sucede, generará una gran cantidad de preocupaciones morales y éticas, dice abedul jonathan, profesor de filosofía en la Escuela de Economía y Ciencias Políticas de Londres.

A medida que la tecnología de IA avanza, las cuestiones éticas provocadas por las interacciones entre humanos e IA han adquirido una nueva urgencia. “No sabemos si incluirlos en nuestro círculo moral o excluirlos”, dijo Birch. “No sabemos cuáles serán las consecuencias. Y me lo tomo en serio como un riesgo genuino del que deberíamos empezar a hablar. No realmente porque creo ChatGPT está en esa categoría, sino porque no sé qué va a pasar en los próximos 10 o 20 años”.

Mientras tanto, dice, haríamos bien en estudiar otras mentes no humanas, como las de los animales. Birch lidera la universidad Proyecto Fundamentos de Sentimiento Animal, un esfuerzo financiado por la Unión Europea que "tiene como objetivo tratar de hacer algún progreso en las grandes cuestiones de la sensibilidad animal", como lo expresó Birch. “¿Cómo desarrollamos mejores métodos para estudiar científicamente las experiencias conscientes de los animales? ¿Y cómo podemos poner a trabajar la ciencia emergente de la sensibilidad animal para diseñar mejores políticas, leyes y formas de cuidar a los animales?

Nuestra entrevista se realizó a través de Zoom y por correo electrónico, y ha sido editada por su extensión y claridad.

(Este artículo se publicó originalmente el Undark. Leer el articulo original.)

Oscuro: Ha habido un debate en curso sobre si la IA puede ser consciente o sensible. Y parece haber una pregunta paralela sobre si la IA puede parecer ser sensible ¿Por qué es tan importante esa distinción?

Jonathan Abedul: Creo que es un gran problema, y ​​algo que debería asustarnos bastante, en realidad. Incluso ahora, los sistemas de IA son bastante capaces de convencer a sus usuarios de su sensibilidad. Eso lo vimos el año pasado con el caso de Blake Lemoine, el ingeniero de Google que se convenció que el sistema en el que estaba trabajando era sensible, y eso es solo cuando la salida es puramente texto y cuando el usuario es un experto en IA altamente calificado.

Así que imagine una situación en la que la IA pueda controlar un rostro humano y una voz humana y el usuario no tenga experiencia. Creo que la IA ya está en una posición en la que puede convencer a un gran número de personas de que es un ser sensible con bastante facilidad. Y es un gran problema, porque creo que empezaremos a ver gente haciendo campaña por el bienestar de la IA, derechos de IA, y cosas asi.

Y no sabremos qué hacer al respecto. Porque lo que nos gustaría es un argumento de derribo realmente sólido que demuestre que los sistemas de IA de los que están hablando son no consciente. Y no tenemos eso. Nuestra comprensión teórica de la conciencia no es lo suficientemente madura como para permitirnos declarar con confianza su ausencia.

UD: Se podría programar un robot o un sistema de inteligencia artificial para decir algo como: "Deja de hacer eso, me estás haciendo daño". Pero una simple declaración de ese tipo no es suficiente para servir como prueba de fuego para la sensibilidad, ¿verdad?

JB: Puede tener sistemas muy simples [como los] desarrollados en el Imperial College London para ayudar a los médicos con su capacitación que imitar las expresiones de dolor humano. Y no hay absolutamente ninguna razón para pensar que estos sistemas son conscientes. Realmente no sienten dolor; todo lo que están haciendo es asignar entradas a salidas de una manera muy simple. Pero las expresiones de dolor que producen son bastante realistas.

Creo que estamos en una posición algo similar con los chatbots como ChatGPT: están entrenados en más de un billón de palabras de datos de entrenamiento para imitar los patrones de respuesta de un humano para responder de la manera en que respondería un humano.

Entonces, por supuesto, si le das un aviso al que un humano respondería haciendo una expresión de dolor, podrá imitar hábilmente esa respuesta.

Pero creo que cuando sabemos que esa es la situación, cuando sabemos que estamos lidiando con una imitación hábil, no hay una razón sólida para pensar que hay una experiencia de dolor real detrás de eso.

UD: Esta entidad en la que se están entrenando los estudiantes de medicina, ¿supongo que es algo así como un robot?

JB: Así es, sí. Así que tienen una cosa parecida a un maniquí, con rostro humano, y el médico puede presionar el brazo y obtener una expresión que imita las expresiones que los humanos darían con diferentes grados de presión. Es para ayudar a los médicos a aprender cómo llevar a cabo las técnicas en los pacientes de manera adecuada sin causar demasiado dolor.

Y somos muy fáciles de engañar tan pronto como algo tiene un rostro humano y hace expresiones como las haría un humano, incluso si no hay una inteligencia real detrás de eso.

Entonces, si imaginas que te emparejan con el tipo de IA que vemos en ChatGPT, tienes una especie de imitación que es genuinamente muy convincente y que convencerá a mucha gente.

UD: Sentience parece algo que conocemos desde adentro, por así decirlo. Entendemos nuestra propia sensibilidad, pero ¿cómo probaría la sensibilidad en otros, ya sea una IA o cualquier otra entidad más allá de uno mismo?

JB: Creo que estamos en una posición muy fuerte con otros humanos, que pueden hablar con nosotros, porque ahí tenemos un cuerpo de evidencia increíblemente rico. Y la mejor explicación para eso es que otros humanos tienen experiencias conscientes, al igual que nosotros. Y entonces podemos usar este tipo de inferencia que los filósofos a veces llaman "inferencia a la mejor explicación".

Creo que podemos abordar el tema de otros animales exactamente de la misma manera: otros animales no nos hablan, pero muestran comportamientos que se explican de manera muy natural atribuyéndoles estados como el dolor. Por ejemplo, si ve a un perro lamiéndose las heridas después de una lesión, amamantando esa área, aprendiendo a evitar los lugares donde corre el riesgo de lesionarse, naturalmente explicaría este patrón de comportamiento postulando un estado de dolor.

Y creo que cuando tratamos con otros animales que tienen sistemas nerviosos bastante similares al nuestro y que han evolucionado como nosotros, creo que ese tipo de inferencia es completamente razonable.

UD: ¿Qué pasa con un sistema de IA?

JB: En el caso de la IA, tenemos un gran problema. En primer lugar, tenemos el problema de que el sustrato es diferente. Realmente no sabemos si la experiencia consciente es sensible al sustrato: ¿tiene que tener un sustrato biológico, es decir, un sistema nervioso, un cerebro? ¿O es algo que se puede lograr en un material totalmente diferente, un sustrato a base de silicio?

Pero también está el problema que he llamado el "problema de los juegos": cuando el sistema tiene acceso a trillones de palabras de datos de entrenamiento y ha sido entrenado con el objetivo de imitar el comportamiento humano, el tipo de patrones de comportamiento que produce podría ser explicado por tener genuinamente la experiencia consciente. O, alternativamente, podrían explicarse simplemente por establecer el objetivo de comportarse como un humano respondería en esa situación.

Así que realmente creo que estamos en problemas en el caso de la IA, porque es poco probable que nos encontremos en una posición en la que claramente sea la mejor explicación de lo que estamos viendo: que la IA es consciente. Siempre habrá explicaciones alternativas plausibles. Y ese es un aprieto muy difícil de salir.

UD: ¿Cuál crees que podría ser nuestra mejor apuesta para distinguir entre algo que es realmente consciente y una entidad que simplemente tiene la apariencia de sensibilidad?

JB: Creo que la primera etapa es reconocerlo como un problema muy profundo y difícil. La segunda etapa es tratar de aprender todo lo que podamos del caso de otros animales. Creo que cuando estudiamos animales que están muy cerca de nosotros, en términos evolutivos, como perros y otros mamíferos, siempre nos quedamos sin saber si la experiencia consciente podría depender de mecanismos cerebrales muy específicos que son distintivos del cerebro de los mamíferos.

Para superar eso, debemos observar una gama de animales tan amplia como podamos. Y debemos pensar en particular en los invertebrados, como los pulpos y los insectos, donde esto es potencialmente otra instancia de experiencia consciente que evolucionó de forma independiente. Así como el ojo de un pulpo evolucionó completamente separado de nuestros propios ojos, tiene esta fascinante combinación de similitudes y diferencias, creo que sus experiencias conscientes también serán así: evolucionaron de forma independiente, similares en algunos aspectos, muy, muy diferentes en otras maneras.

Y a través del estudio de las experiencias de invertebrados como los pulpos, podemos comenzar a comprender cuáles son las características realmente profundas que debe tener un cerebro para respaldar las experiencias conscientes, cosas que van más allá de solo tener estas estructuras cerebrales específicas que son allí en los mamíferos. ¿Qué tipos de cómputo se necesitan? ¿Qué tipos de procesamiento?

Entonces, y veo esto como una estrategia a largo plazo, podríamos volver al caso de la IA y decir, bueno, ¿tiene esos tipos especiales de computación que encontramos en animales conscientes como mamíferos y pulpos?

UD: ¿Crees que algún día crearemos IA inteligente?

JB: Estoy alrededor de las 50:50 en esto. Existe la posibilidad de que la sensibilidad dependa de características especiales de un cerebro biológico, y no está claro cómo probar si es así. Así que creo que siempre habrá una incertidumbre sustancial en la IA. Tengo más confianza en esto: si la conciencia puede en principio lograrse en software de computadora, entonces los investigadores de IA encontrarán una manera de hacerlo.

Crédito de la imagen: Efectivo Macanaya / Unsplash 

Sello de tiempo:

Mas de Centro de Singularidad