¿Pueden las máquinas ser conscientes de sí mismas? Una nueva investigación explica cómo podría suceder esto

¿Pueden las máquinas ser conscientes de sí mismas? Una nueva investigación explica cómo podría suceder esto

Para construir una máquina, uno debe saber cuáles son sus partes y cómo encajan entre sí. Para entender la máquina, uno necesita saber qué hace cada parte y cómo contribuye a su función. En otras palabras, uno debería poder explicar la “mecánica” de cómo funciona.

De acuerdo a una enfoque filosófico Llamado mecanismo, los humanos son posiblemente un tipo de máquina, y nuestra capacidad para pensar, hablar y comprender el mundo es el resultado de un proceso mecánico que no entendemos.

Para entendernos mejor a nosotros mismos, podemos intentar construir máquinas que imiten nuestras habilidades. Al hacerlo, tendríamos una comprensión mecánica de esas máquinas. Y cuanto más de nuestro comportamiento exhiba la máquina, más cerca estaremos de tener una explicación mecanicista de nuestras propias mentes.

Esto es lo que hace que la IA sea interesante desde un punto de vista filosófico. Modelos avanzados como GPT-4 y Midjourney ahora puede imitar una conversación humana, aprobar exámenes profesionales y generar bellas imágenes con solo unas pocas palabras.

Sin embargo, a pesar de todo el progreso, las preguntas siguen sin respuesta. ¿Cómo podemos hacer que algo sea consciente de sí mismo, o consciente de que otros son conscientes? ¿Qué es la identidad? ¿Cuál es el significado?

Aunque hay muchas descripciones filosóficas en competencia de estas cosas, todas se han resistido a la explicación mecanicista.

En un secuencia de papeles aceptado para el 16ª Conferencia Anual en Inteligencia Artificial General en Estocolmo planteo una explicación mecanicista de estos fenómenos. Explican cómo podemos construir una máquina que sea consciente de sí misma, de los demás, de sí misma tal como la perciben los demás, etc.

Inteligencia e Intención

Mucho de lo que llamamos inteligencia se reduce a hacer predicciones sobre el mundo con información incompleta. Cuanta menos información necesita una máquina para hacer predicciones precisas, más "inteligente" es.

Para cualquier tarea dada, hay un límite de cuánta inteligencia es realmente útil. Por ejemplo, la mayoría de los adultos son lo suficientemente inteligentes como para aprender a conducir un automóvil, pero una mayor inteligencia probablemente no los hará mejores conductores.

Mis papeles describen el limite superior de la inteligencia para una tarea dada, y lo que se requiere para construir una máquina que lo logre.

Llamé a la idea la navaja de afeitar de Bennett, que en términos no técnicos es que “las explicaciones no deben ser más específicas de lo necesario”. Esto es distinto de la interpretación popular de la Navaja de Ockham (y descripciones matemáticas de los mismos), que es una preferencia por explicaciones más simples.

La diferencia es sutil, pero significativa. en un experimento Al comparar la cantidad de datos que necesitan los sistemas de IA para aprender matemáticas simples, la IA que prefirió explicaciones menos específicas superó a la que prefirió explicaciones más simples hasta en un 500 por ciento.

Explorar las implicaciones de este descubrimiento me llevó a una explicación mecanicista del significado, algo llamado “pragmática griceana.” Este es un concepto en la filosofía del lenguaje que analiza cómo el significado se relaciona con la intención.

Para sobrevivir, un animal necesita predecir cómo actuará y reaccionará su entorno, incluidos otros animales. No dudaría en dejar un automóvil desatendido cerca de un perro, pero no se puede decir lo mismo de su almuerzo de bistec.

Ser inteligente en una comunidad significa ser capaz de inferir la intención de los demás, que se deriva de sus sentimientos y preferencias. Si una máquina fuera a alcanzar el límite superior de inteligencia para una tarea que depende de las interacciones con un humano, también tendría que inferir correctamente la intención.

Y si una máquina puede atribuir intención a los eventos y experiencias que le suceden, esto plantea la cuestión de la identidad y lo que significa ser consciente de uno mismo y de los demás.

Causalidad e Identidad

Veo a John usando un impermeable cuando llueve. Si obligo a John a usar un impermeable en un día soleado, ¿lloverá?

¡Por supuesto que no! Para un humano, esto es obvio. Pero las sutilezas de causa y efecto son más difíciles de enseñar a una máquina (los lectores interesados ​​pueden consultar El libro de por qué por Judea Pearl y Dana Mackenzie).

Para razonar sobre estas cosas, una máquina necesita aprender que "Yo hice que sucediera" es diferente de "Yo vi que sucedía". Por lo general, lo haríamos programa este entendimiento en él.

Sin embargo, mi trabajo explica cómo podemos construir una máquina que se desempeñe en el límite superior de inteligencia para una tarea. Tal máquina debe, por definición, identificar correctamente la causa y el efecto y, por lo tanto, también inferir relaciones causales. Mis papeles explorar exactamente cómo.

Las implicaciones de esto son profundas. Si una máquina aprende "Yo hice que sucediera", entonces debe construir conceptos de "yo" (una identidad para sí misma) y "eso".

Las habilidades para inferir intenciones, aprender causa y efecto y construir identidades abstractas están todas vinculadas. Una máquina que alcanza el límite superior de inteligencia para una tarea debe exhibir todas estas habilidades.

Esta máquina no solo construye una identidad para sí misma, sino para cada aspecto de cada objeto que ayuda o dificulta su capacidad para completar la tarea. entonces puede usar sus propias preferencias como herramienta de edición del línea de base para predecir lo que otros pueden hacer. Esto es similar a cómo los humanos tienden a atribuir intención a los animales no humanos.

Entonces, ¿qué significa para la IA?

Por supuesto, la mente humana es mucho más que el simple programa utilizado para realizar experimentos en mi investigación. Mi trabajo proporciona una descripción matemática de un posible camino causal para crear una máquina que podría decirse que es consciente de sí misma. Sin embargo, los detalles de la ingeniería de tal cosa están lejos de resolverse.

Por ejemplo, la intención similar a la humana requeriría experiencias y sentimientos similares a los humanos, lo cual es algo difícil de diseñar. Además, no podemos probar fácilmente la riqueza total de la conciencia humana. Conocimiento es un concepto amplio y ambiguo que abarca, pero debe distinguirse de, las afirmaciones más limitadas anteriores.

He proporcionado una explicación mecanicista de aspectos de la conciencia, pero esto por sí solo no captura toda la riqueza de la conciencia tal como la experimentan los humanos. Esto es solo el comienzo, y la investigación futura deberá ampliar estos argumentos.La conversación

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el articulo original.

Crédito de la imagen: Mente profunda on Unsplash 

Sello de tiempo:

Mas de Centro de Singularidad