Dare all'intelligenza artificiale un senso di empatia potrebbe proteggerci dai suoi peggiori impulsi

Dare all'intelligenza artificiale un senso di empatia potrebbe proteggerci dai suoi peggiori impulsi

Dare all'IA un senso di empatia potrebbe proteggerci dai suoi peggiori impulsi PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Nel film M3GAN, uno sviluppatore di giocattoli regala a sua nipote Cady, rimasta orfana di recente, un robot alimentato dall'intelligenza artificiale delle dimensioni di un bambino con un unico obiettivo: proteggere Cady. Il robot M3GAN simpatizza con il trauma di Cady. Ma le cose presto vanno male, con il robot dalle dimensioni ridotte che attacca qualsiasi cosa e chiunque percepisca come una minaccia per Cady.

M3GAN non era dannoso. Ha seguito la sua programmazione, ma senza alcuna cura o rispetto per gli altri esseri, incluso infine Cady. In un certo senso, mentre si confrontava con il mondo fisico, M3GAN è diventato un sociopatico AI.

L’intelligenza artificiale sociopatica non è solo un argomento esplorato a Hollywood. Per il dottor Leonardo Christov-Moore della University of Southern California e colleghi, è giunto il momento di integrare l’empatia artificiale nell’intelligenza artificiale e di stroncare sul nascere qualsiasi comportamento antisociale.

In un saggio pubblicato la scorsa settimana in Robotica scientifica, la squadra ha sostenuto per a neuroscienze prospettiva per incorporare l'empatia nelle righe di codice. La chiave è aggiungere "istinti viscerali" per la sopravvivenza, ad esempio la necessità di evitare il dolore fisico. Con un senso di come potrebbe essere "ferito", un agente di intelligenza artificiale potrebbe quindi mappare quella conoscenza su altri. È simile al modo in cui gli umani valutano i reciproci sentimenti: capisco e sento il tuo dolore perché ci sono già stato.

Gli agenti di intelligenza artificiale basati sull'empatia aggiungono un ulteriore livello di guardrail che "previene gravi danni irreversibili" disse Christov-Moore. È molto difficile fare del male agli altri se stai imitando digitalmente - e quindi "sperimentando" - le conseguenze.

Vinci digitale

La rapida ascesa di ChatGPT e di altri grandi modelli generativi ha colto tutti di sorpresa, sollevando immediatamente interrogativi su come possano integrarsi nel nostro mondo. Alcuni paesi lo sono già vietato la tecnologia a causa dei rischi di sicurezza informatica e delle tutele della privacy. Anche gli esperti di intelligenza artificiale hanno lanciato un campanello d'allarme in una lettera aperta all'inizio di quest'anno che ha avvertito dei "profondi rischi per la società" della tecnologia.

Ci stiamo ancora adattando a un mondo basato sull'intelligenza artificiale. Ma poiché questi algoritmi si fanno sempre più strada nel tessuto della società, è giunto il momento di guardare avanti alle loro potenziali conseguenze. Come guidiamo gli agenti di intelligenza artificiale a non fare del male, ma invece a lavorare con l'umanità e ad aiutare la società?

È un problema difficile. La maggior parte degli algoritmi di intelligenza artificiale rimane una scatola nera. Non sappiamo come o perché molti algoritmi generano decisioni.

Eppure gli agenti hanno una straordinaria capacità di trovare soluzioni "sorprendenti e anche misteriose" che sono controintuitive per gli umani, ha detto Christov-Moore. Date loro una sfida, diciamo, trovando modi per costruire quante più proteine ​​terapeutiche possibile, e spesso immagineranno soluzioni che gli umani non hanno nemmeno preso in considerazione.

La creatività illimitata ha un costo. "Il problema è che è possibile che possano scegliere una soluzione che potrebbe provocare danni catastrofici irreversibili agli esseri viventi, e agli esseri umani in particolare", ha affermato Christov-Moore.

L'aggiunta di una dose di empatia artificiale all'intelligenza artificiale potrebbe essere la barriera di protezione più forte che abbiamo a questo punto.

Parliamo di sentimenti

L'empatia non è simpatia.

Ad esempio: di recente ho versato perossido di idrogeno su una ferita fresca larga tre pollici. La simpatia è quando capisci che è stato doloroso e mostri cura e compassione. L'empatia è quando immagini vividamente come si sentirebbe il dolore su di te (e rabbrividisci).

Precedenti ricerche nel campo delle neuroscienze mostrano che l'empatia può essere approssimativamente suddivisa in due componenti principali. Uno è puramente logico: osservi il comportamento di qualcuno, decodifichi la sua esperienza e deduci cosa gli sta accadendo.

La maggior parte dei metodi esistenti per l'empatia artificiale prende questa strada, ma è una corsia preferenziale per l'IA sociopatica. Simile alle famigerate controparti umane, questi agenti possono imitare i sentimenti ma non sperimentarli, quindi possono prevedere e manipolare quei sentimenti negli altri senza alcuna ragione morale per evitare danni o sofferenze.

La seconda componente completa il quadro. Qui, all'intelligenza artificiale viene dato un senso di vulnerabilità condiviso tra gli esseri umani e altri sistemi.

"Se so solo in che stato ti trovi, ma non lo condivido affatto, allora non c'è motivo per cui mi commuoverebbe a meno che non avessi una sorta di codice morale molto forte che avevo sviluppato", ha detto Christov-Moore .

Un'intelligenza artificiale vulnerabile

Un modo per codificare la vulnerabilità è infondere all'intelligenza artificiale la sensazione di rimanere in vita.

Gli umani hanno fame. Surriscaldato. Congelato. Euforico. Depresso. Grazie all'evoluzione, abbiamo una finestra ristretta ma flessibile per ogni misurazione biologica che aiuta a mantenere la salute fisica e mentale generale, chiamata omeostasi. Conoscere le capacità dei nostri corpi e delle nostre menti rende possibile cercare qualsiasi soluzione possibile quando ci troviamo in ambienti dinamici inaspettati.

Questi vincoli biologici non sono un bug, ma piuttosto una caratteristica per generare empatia nell'intelligenza artificiale, hanno affermato gli autori.

Un'idea precedente per programmare l'empatia artificiale nell'intelligenza artificiale è scrivere regole esplicite per giusto contro sbagliato. Viene fornito con problemi evidenti. I sistemi basati su regole sono rigidi e difficili da navigare in aree moralmente grigie. Sono anche difficili da stabilire, con culture diverse che hanno quadri molto diversi di ciò che è accettabile.

Al contrario, la spinta alla sopravvivenza è universale e rappresenta un punto di partenza per costruire un'IA vulnerabile.

"Alla fine della giornata, la cosa principale è il tuo cervello... deve occuparsi di come mantenere un corpo vulnerabile nel mondo, e la tua valutazione di come stai andando bene", ha detto Christov-Moore.

Questi dati si manifestano nella coscienza come sentimenti che influenzano le nostre scelte: comodo, scomodo, vai qui, mangia lì. Queste pulsioni sono "la colonna sonora alla base del film della nostra vita e ci danno un'idea di [se le cose] stanno andando bene o no", ha detto Christov-Moore. Senza un corpo vulnerabile che deve essere mantenuto, digitalmente o fisicamente come robot, un agente di intelligenza artificiale non può avere la pelle nel gioco per la vita collaborativa che lo spinge verso o lontano da determinati comportamenti.

Quindi, come costruire un'intelligenza artificiale vulnerabile?

"Devi provare qualcosa come la sofferenza", ha detto Christov-Moore.

Il team ha elaborato un progetto pratico. L'obiettivo principale è mantenere l'omeostasi. Nella prima fase, il "bambino" dell'IA si aggira in un ambiente pieno di ostacoli mentre cerca ricompense vantaggiose e si mantiene in vita. Successivamente, inizia a sviluppare un'idea di ciò che pensano gli altri osservandoli. È come un primo appuntamento: il bambino AI cerca di immaginare cosa sta "pensando" un'altra IA (che ne dici di dei fiori freschi?), e quando è sbagliato (l'altra IA odia i fiori), soffre di una sorta di tristezza e aggiusta le sue aspettative. Con più tentativi, l'IA alla fine impara e si adatta alle preferenze dell'altro.

Infine, l'IA mappa i modelli interni dell'altro su se stessa pur mantenendo la propria integrità. Quando prende una decisione, può quindi considerare contemporaneamente più punti di vista soppesando ogni input per una singola decisione, rendendola a sua volta più intelligente e più cooperativa.

Per ora, questi sono solo scenari teorici. Simile agli umani, questi agenti di intelligenza artificiale non sono perfetti. Prendono decisioni sbagliate quando sono stressati in tempo e ignorano le conseguenze a lungo termine.

Detto questo, l'intelligenza artificiale "crea un deterrente incorporato nella sua stessa intelligenza... che la dissuade da decisioni che potrebbero causare danni ad altri agenti viventi oltre che a se stessa", ha affermato Christov-Moore. “Bilanciando danno, benessere e prosperità in molteplici scenari conflittuali in questo mondo, l'IA può arrivare a soluzioni controintuitive a pressanti problemi a livello di civiltà a cui non abbiamo mai nemmeno pensato. Se riusciamo a superare questo prossimo ostacolo... l'IA potrebbe passare dall'essere un rischio a livello di civiltà al più grande alleato che abbiamo mai avuto".

Immagine di credito: Mohamed Hassan da Pixabay

Timestamp:

Di più da Hub di singolarità