Le macchine possono essere autocoscienti? Una nuova ricerca spiega come questo potrebbe accadere

Le macchine possono essere autocoscienti? Una nuova ricerca spiega come questo potrebbe accadere

Per costruire una macchina, bisogna sapere quali sono le sue parti e come si incastrano. Per capire la macchina, bisogna sapere cosa fa ogni parte e come contribuisce alla sua funzione. In altre parole, si dovrebbe essere in grado di spiegare la "meccanica" di come funziona.

Secondo un approccio filosofico chiamato meccanismo, gli esseri umani sono senza dubbio un tipo di macchina e la nostra capacità di pensare, parlare e comprendere il mondo è il risultato di un processo meccanico che non capiamo.

Per capire meglio noi stessi, possiamo provare a costruire macchine che imitano le nostre capacità. In tal modo, avremmo una comprensione meccanicistica di quelle macchine. E quanto più la macchina esibisce il nostro comportamento, tanto più potremmo essere vicini ad avere una spiegazione meccanicistica delle nostre menti.

Questo è ciò che rende l'IA interessante da un punto di vista filosofico. Modelli avanzati come GPT-4 e Midjourney ora può imitare la conversazione umana, superare esami professionali e generare bellissime immagini con poche parole.

Eppure, nonostante tutti i progressi, le domande rimangono senza risposta. Come possiamo rendere qualcosa consapevole di sé, o consapevole che gli altri sono consapevoli? Cos'è l'identità? Che significa?

Sebbene ci siano molte descrizioni filosofiche contrastanti di queste cose, tutte hanno resistito alla spiegazione meccanicistica.

In un sequenza di carte accettato per il 16a conferenza annuale sull'intelligenza generale artificiale a Stoccolma, propongo una spiegazione meccanicistica per questi fenomeni. Spiegano come possiamo costruire una macchina che sia consapevole di se stessa, degli altri, di se stessa percepita dagli altri, e così via.

Intelligenza e intenzione

Gran parte di ciò che chiamiamo intelligenza si riduce a fare previsioni sul mondo con informazioni incomplete. Meno informazioni ha bisogno una macchina per fare previsioni accurate, più è "intelligente".

Per ogni dato compito, c'è un limite alla quantità di intelligenza effettivamente utile. Ad esempio, la maggior parte degli adulti è abbastanza intelligente da imparare a guidare un'auto, ma una maggiore intelligenza probabilmente non li renderà guidatori migliori.

I miei documenti descrivono il limite superiore dell'intelligenza per un determinato compito e ciò che è necessario per costruire una macchina che lo raggiunga.

Ho chiamato l'idea Bennett's Razor, che in termini non tecnici è che "le spiegazioni non dovrebbero essere più specifiche del necessario". Questo è distinto dall'interpretazione popolare del Rasoio di Ockham (e loro descrizioni matematiche), che è una preferenza per le spiegazioni più semplici.

La differenza è sottile, ma significativa. In un esperimento confrontando la quantità di dati di cui i sistemi di IA hanno bisogno per imparare la matematica semplice, l'IA che preferiva spiegazioni meno specifiche ha superato quella che preferiva spiegazioni più semplici fino al 500%.

Esplorare le implicazioni di questa scoperta mi ha portato a una spiegazione meccanicistica del significato, qualcosa chiamato "Pragmatica Griceana.” Questo è un concetto nella filosofia del linguaggio che esamina come il significato è correlato all'intento.

Per sopravvivere, un animale deve prevedere come agirà e reagirà il suo ambiente, inclusi gli altri animali. Non esiteresti a lasciare un'auto incustodita vicino a un cane, ma lo stesso non si può dire del tuo pranzo con bistecca di fesa.

Essere intelligenti in una comunità significa essere in grado di dedurre l'intenzione degli altri, che deriva dai loro sentimenti e preferenze. Se una macchina dovesse raggiungere il limite superiore dell'intelligenza per un compito che dipende dalle interazioni con un essere umano, allora dovrebbe anche dedurre correttamente l'intento.

E se una macchina può attribuire un intento agli eventi e alle esperienze che le accadono, ciò solleva la questione dell'identità e di cosa significhi essere consapevoli di se stessi e degli altri.

Causalità e identità

Vedo John indossare un impermeabile quando piove. Se costringo John a indossare un impermeabile in una giornata di sole, porterà pioggia?

Ovviamente no! Per un essere umano, questo è ovvio. Ma le sottigliezze di causa ed effetto sono più difficili da insegnare a una macchina (i lettori interessati possono dare un'occhiata Il libro del perché di Judea Pearl e Dana Mackenzie).

Per ragionare su queste cose, una macchina deve imparare che "l'ho fatto accadere" è diverso da "l'ho visto accadere". In genere, lo faremmo Programma questa comprensione in esso.

Tuttavia, il mio lavoro spiega come possiamo costruire una macchina che funzioni al limite superiore dell'intelligenza per un compito. Una macchina del genere deve, per definizione, identificare correttamente causa ed effetto, e quindi dedurre anche relazioni causali. Le mie carte esplorare esattamente come.

Le implicazioni di ciò sono profonde. Se una macchina impara "io ho causato che accadesse", allora deve costruire concetti di "io" (un'identità per se stessa) e "esso".

Le capacità di dedurre l'intenzione, di apprendere causa ed effetto e di costruire identità astratte sono tutte collegate. Una macchina che raggiunge il limite superiore di intelligenza per un compito deve esibire tutte queste capacità.

Questa macchina non si limita a costruire un'identità per se stessa, ma per ogni aspetto di ogni oggetto che aiuta o ostacola la sua capacità di portare a termine il compito. Può allora utilizzare le proprie preferenze come linea di base da prevedere cosa possono fare gli altri. Questo è simile a come gli esseri umani tendono ad attribuire intenzione di animali non umani.

Quindi cosa significa per l'IA?

Naturalmente, la mente umana è molto più del semplice programma utilizzato per condurre esperimenti nella mia ricerca. Il mio lavoro fornisce una descrizione matematica di un possibile percorso causale per la creazione di una macchina che sia probabilmente autocosciente. Tuttavia, le specifiche dell'ingegnerizzazione di una cosa del genere sono tutt'altro che risolte.

Ad esempio, l'intento simile a quello umano richiederebbe esperienze e sentimenti simili a quelli umani, il che è una cosa difficile da progettare. Inoltre, non possiamo verificare facilmente la piena ricchezza della coscienza umana. Coscienza è un concetto ampio e ambiguo che comprende, ma dovrebbe essere distinto da, le affermazioni più ristrette di cui sopra.

Ho fornito una spiegazione meccanicistica di aspetti della coscienza, ma questo da solo non cattura la piena ricchezza della coscienza così come gli esseri umani la sperimentano. Questo è solo l'inizio e la ricerca futura dovrà approfondire questi argomenti.The Conversation

Questo articolo è ripubblicato da The Conversation sotto una licenza Creative Commons. Leggi il articolo originale.

Immagine di credito: DeepMind on Unsplash 

Timestamp:

Di più da Hub di singolarità