In che modo lo studio della sensibilità animale potrebbe aiutare a risolvere il puzzle etico dell'IA senziente

In che modo lo studio della sensibilità animale potrebbe aiutare a risolvere il puzzle etico dell'IA senziente

In che modo lo studio della sensibilità animale potrebbe aiutare a risolvere il puzzle etico dell'intelligenza artificiale dei dati PlatoBlockchain dell'intelligenza artificiale senziente. Ricerca verticale. Ai.

intelligenza artificiale è progredito così rapidamente che persino alcuni degli scienziati responsabili di molti sviluppi chiave sono turbati dal ritmo del cambiamento. All'inizio di quest'anno, più di 300 professionisti che lavorano nell'IA e altri personaggi pubblici interessati hanno emesso un brusco avvertimento sul pericolo che la tecnologia rappresenta, paragonando il rischio a quello delle pandemie o della guerra nucleare.

In agguato appena sotto la superficie di queste preoccupazioni c'è la questione della coscienza della macchina. Anche se non c'è "nessuno in casa" all'interno delle odierne IA, alcuni ricercatori si chiedono se un giorno potrebbero mostrare un barlume di coscienza o qualcosa di più. Se ciò accade, solleverà una serie di preoccupazioni morali ed etiche, dice Jonathan Betulla, professore di filosofia alla London School of Economics and Political Science.

Man mano che la tecnologia dell'intelligenza artificiale fa un balzo in avanti, le questioni etiche suscitate dalle interazioni uomo-IA hanno assunto una nuova urgenza. "Non sappiamo se inserirli nel nostro circolo morale o escluderli", ha detto Birch. “Non sappiamo quali saranno le conseguenze. E lo prendo seriamente come un vero rischio di cui dovremmo iniziare a parlare. Non proprio perché penso ChatGPT rientra in quella categoria, ma perché non so cosa accadrà nei prossimi 10 o 20 anni”.

Nel frattempo, dice, potremmo fare bene a studiare altre menti non umane, come quelle degli animali. Birch dirige l'università Fondamenti del progetto Animal Sentience, uno sforzo finanziato dall'Unione Europea che "mira a cercare di fare progressi sulle grandi questioni della sensibilità animale", come ha affermato Birch. “Come possiamo sviluppare metodi migliori per studiare scientificamente le esperienze coscienti degli animali? E come possiamo far funzionare la scienza emergente della sensibilità animale, per progettare politiche, leggi e modi migliori di prendersi cura degli animali?

La nostra intervista è stata condotta tramite Zoom e via e-mail ed è stata modificata per lunghezza e chiarezza.

(Questo articolo è stato pubblicato in origine Undark. Leggi il articolo originale.)

non oscuro: C'è stato un dibattito in corso sul fatto che l'IA possa essere cosciente o senziente. E sembra esserci una domanda parallela sul fatto che l'IA possa farlo sembrare essere senziente. Perché questa distinzione è così importante?

Jonathan Betulla: Penso che sia un grosso problema, e qualcosa che dovrebbe farci piuttosto paura, in realtà. Anche adesso, i sistemi di intelligenza artificiale sono perfettamente in grado di convincere i propri utenti della loro sensibilità. Lo abbiamo visto l'anno scorso con il caso di Blake Lemoine, l'ingegnere di Google che si convinse che il sistema su cui stava lavorando era senziente, ed è proprio quando l'output è puramente testuale e quando l'utente è un esperto di intelligenza artificiale altamente qualificato.

Quindi immagina una situazione in cui l'IA è in grado di controllare un volto umano e una voce umana e l'utente è inesperto. Penso che l'intelligenza artificiale sia già nella posizione in cui può convincere un gran numero di persone che è un essere senziente abbastanza facilmente. Ed è un grosso problema, perché penso che inizieremo a vedere persone che fanno campagne per il benessere dell'IA, Diritti dell'IA, e cose così.

E non sapremo cosa fare al riguardo. Perché quello che vorremmo è un argomento di abbattimento davvero forte che dimostri che i sistemi di intelligenza artificiale di cui stanno parlando lo sono non cosciente. E non ce l'abbiamo. La nostra comprensione teorica della coscienza non è abbastanza matura da permetterci di dichiararne con sicurezza l'assenza.

UD: Un robot o un sistema di intelligenza artificiale potrebbe essere programmato per dire qualcosa del tipo: "Smettila, mi stai facendo del male". Ma una semplice dichiarazione del genere non è sufficiente per servire da cartina di tornasole per la sensibilità, giusto?

JB: Puoi avere sistemi molto semplici [come quelli] sviluppati all'Imperial College di Londra per aiutare i medici con la loro formazione imitare le espressioni del dolore umano. E non c'è assolutamente alcun motivo per pensare che questi sistemi siano senzienti. Non provano davvero dolore; tutto ciò che stanno facendo è mappare gli input agli output in un modo molto semplice. Ma le espressioni di dolore che producono sono piuttosto realistiche.

Penso che siamo in una posizione in qualche modo simile con chatbot come ChatGPT, che sono addestrati su oltre un trilione di parole di dati di addestramento per imitare i modelli di risposta di un essere umano per rispondere in modi in cui un essere umano risponderebbe.

Quindi, ovviamente, se gli dai un suggerimento a cui un essere umano risponderebbe facendo un'espressione di dolore, sarà in grado di imitare abilmente quella risposta.

Ma penso che quando sappiamo che questa è la situazione - quando sappiamo che abbiamo a che fare con un mimetismo abile - non c'è alcuna ragione valida per pensare che dietro ci sia una vera esperienza di dolore.

UD: Questa entità su cui si stanno allenando gli studenti di medicina, immagino sia qualcosa come un robot?

JB: Esatto, sì. Quindi hanno una cosa simile a un manichino, con un volto umano, e il dottore è in grado di premere il braccio e ottenere un'espressione che imita le espressioni che gli umani darebbero per vari gradi di pressione. È per aiutare i medici a imparare come eseguire le tecniche sui pazienti in modo appropriato senza causare troppo dolore.

E siamo molto facilmente catturati non appena qualcosa ha un volto umano e fa espressioni come farebbe un essere umano, anche se dietro non c'è alcuna vera intelligenza.

Quindi, se immagini di essere abbinato al tipo di intelligenza artificiale che vediamo in ChatGPT, hai una sorta di mimetismo che è davvero molto convincente e che convincerà molte persone.

UD: La sensibilità sembra qualcosa che conosciamo dall'interno, per così dire. Comprendiamo la nostra stessa sensibilità, ma come testeresti la sensibilità negli altri, che si tratti di un'intelligenza artificiale o di qualsiasi altra entità al di là di te stesso?

JB: Penso che siamo in una posizione molto forte con altri umani, che possono parlare con noi, perché lì abbiamo un insieme di prove incredibilmente ricco. E la migliore spiegazione è che altri esseri umani hanno esperienze coscienti, proprio come noi. E così possiamo usare questo tipo di inferenza che i filosofi a volte chiamano "inferenza alla migliore spiegazione".

Penso che possiamo affrontare l'argomento degli altri animali esattamente nello stesso modo: che gli altri animali non ci parlano, ma mostrano comportamenti che sono spiegati in modo molto naturale attribuendo stati come il dolore. Ad esempio, se vedi un cane che si lecca le ferite dopo un infortunio, allattando quella zona, imparando a evitare i punti in cui è a rischio di infortunio, spiegheresti naturalmente questo modello di comportamento postulando uno stato di dolore.

E penso che quando abbiamo a che fare con altri animali che hanno un sistema nervoso abbastanza simile al nostro, e che si sono evoluti proprio come noi, penso che questo tipo di inferenza sia del tutto ragionevole.

UD: Che dire di un sistema di intelligenza artificiale?

JB: Nel caso dell'IA, abbiamo un grosso problema. Abbiamo prima di tutto il problema che il substrato è diverso. Non sappiamo davvero se l'esperienza cosciente sia sensibile al substrato: deve avere un substrato biologico, vale a dire un sistema nervoso, un cervello? O è qualcosa che può essere realizzato in un materiale completamente diverso, un substrato a base di silicio?

Ma c'è anche il problema che ho chiamato il "problema del gioco": quando il sistema ha accesso a trilioni di parole di dati di addestramento ed è stato addestrato con l'obiettivo di imitare il comportamento umano, il tipo di modelli di comportamento che produce potrebbe essere spiegato dal fatto di avere genuinamente l'esperienza cosciente. Oppure, in alternativa, potrebbero essere semplicemente spiegati con l'obiettivo di comportarsi come un essere umano risponderebbe in quella situazione.

Quindi penso davvero che siamo nei guai nel caso dell'IA, perché è improbabile che ci troviamo in una posizione in cui è chiaramente la migliore spiegazione per ciò che stiamo vedendo: che l'IA è cosciente. Ci saranno sempre spiegazioni alternative plausibili. E questo è un legame molto difficile da cui uscire.

UD: Secondo te, quale potrebbe essere la nostra scommessa migliore per distinguere tra qualcosa che è effettivamente cosciente e un'entità che ha solo il aspetto di sensibilità?

JB: Penso che il primo passo sia riconoscerlo come un problema molto profondo e difficile. La seconda fase è cercare di imparare il più possibile dal caso di altri animali. Penso che quando studiamo animali che ci sono abbastanza vicini, in termini evolutivi, come cani e altri mammiferi, non siamo sempre sicuri se l'esperienza cosciente possa dipendere da meccanismi cerebrali molto specifici che sono distintivi del cervello dei mammiferi.

Per superarlo, dobbiamo esaminare la più ampia gamma di animali possibile. E dobbiamo pensare in particolare agli invertebrati, come i polpi e gli insetti, dove questo è potenzialmente un altro esempio di esperienza cosciente evolutosi in modo indipendente. Proprio come l'occhio di un polpo si è evoluto in modo completamente separato dai nostri occhi - ha questa affascinante miscela di somiglianze e differenze - penso che anche le sue esperienze coscienti saranno così: evolute in modo indipendente, simili per certi versi, molto, molto diverse in altri modi.

E attraverso lo studio delle esperienze di invertebrati come i polpi, possiamo iniziare a capire quali sono le caratteristiche veramente profonde che un cervello deve avere per supportare le esperienze coscienti, cose che vanno più in profondità del semplice avere queste specifiche strutture cerebrali che sono lì nei mammiferi. Che tipo di calcolo è necessario? Che tipo di lavorazione?

Quindi, e la vedo come una strategia a lungo termine, potremmo tornare al caso dell'intelligenza artificiale e dire, beh, ha quei tipi speciali di calcolo che troviamo in animali coscienti come mammiferi e polpi?

UD: Credi che un giorno creeremo un'IA senziente?

JB: Sono a circa 50:50 su questo. C'è la possibilità che la sensibilità dipenda da caratteristiche speciali di un cervello biologico, e non è chiaro come testare se lo fa. Quindi penso che ci sarà sempre una sostanziale incertezza nell'IA. Sono più fiducioso su questo: se la coscienza può in linea di principio essere raggiunto nel software per computer, allora i ricercatori di intelligenza artificiale troveranno un modo per farlo.

Immagine di credito: Macanaia in contanti / Unsplash 

Timestamp:

Di più da Hub di singolarità