Hoe het bestuderen van dierenbewustzijn kan helpen bij het oplossen van de ethische puzzel van bewuste AI

Hoe het bestuderen van dierenbewustzijn kan helpen bij het oplossen van de ethische puzzel van bewuste AI

Hoe het bestuderen van het sentiment van dieren kan helpen bij het oplossen van de ethische puzzel van Sentient AI PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

kunstmatige intelligentie heeft zich zo snel ontwikkeld dat zelfs sommige wetenschappers die verantwoordelijk zijn voor veel belangrijke ontwikkelingen moeite hebben met het tempo van de veranderingen. Eerder dit jaar hebben meer dan 300 professionals werkzaam in AI en andere bezorgde publieke figuren een botte waarschuwing over het gevaar dat de technologie vormt, waarbij het risico wordt vergeleken met dat van pandemieën of een nucleaire oorlog.

Net onder de oppervlakte van deze zorgen schuilt de kwestie van het machinebewustzijn. Zelfs als er "niemand thuis" is in de huidige AI's, vragen sommige onderzoekers zich af of ze ooit een sprankje bewustzijn zullen vertonen - of meer. Als dat gebeurt, zal het een hele reeks morele en ethische zorgen oproepen, zegt Jonathan Berk, hoogleraar filosofie aan de London School of Economics and Political Science.

Naarmate AI-technologie een sprong voorwaarts maakt, hebben ethische vragen die worden aangewakkerd door mens-AI-interacties een nieuwe urgentie gekregen. "We weten niet of we ze in onze morele cirkel moeten brengen of uitsluiten", zei Birch. “We weten niet wat de gevolgen zullen zijn. En ik neem dat serieus als een reëel risico waar we over moeten gaan praten. Niet echt omdat ik denk ChatGPT valt in die categorie, maar omdat ik niet weet wat er de komende 10 of 20 jaar gaat gebeuren.”

In de tussentijd, zegt hij, zouden we er goed aan doen om andere niet-menselijke geesten te bestuderen, zoals die van dieren. Birch leidt de universiteit Stichtingen van Animal Sentience-project, een door de Europese Unie gefinancierde inspanning die "beoogt enige vooruitgang te boeken bij de grote vragen over het gevoel van dieren", zoals Birch het uitdrukte. “Hoe ontwikkelen we betere methoden om de bewuste ervaringen van dieren wetenschappelijk te bestuderen? En hoe kunnen we de opkomende wetenschap van dierenbewustzijn aan het werk zetten, om beter beleid, wetten en manieren om voor dieren te zorgen te ontwerpen?”

Ons interview werd afgenomen via Zoom en per e-mail en is bewerkt voor lengte en duidelijkheid.

(Dit artikel is oorspronkelijk gepubliceerd op Undark. Lees de originele artikel.)

Ondonker: Er is een voortdurende discussie gaande over de vraag of AI bewust of bewust kan zijn. En er lijkt een parallelle vraag te zijn of AI dat kan lijken bewust zijn. Waarom is dat onderscheid zo belangrijk?

Jonathan Berk: Ik denk dat het een enorm probleem is, en eigenlijk iets dat ons behoorlijk bang zou moeten maken. Zelfs nu zijn AI-systemen goed in staat om hun gebruikers te overtuigen van hun gevoel. Dat zagen we vorig jaar bij de zaak van Blake Lemoine, de Google-ingenieur die raakte overtuigd dat het systeem waaraan hij werkte gevoelig was - en dat is alleen wanneer de uitvoer puur tekst is en wanneer de gebruiker een zeer bekwame AI-expert is.

Stel je dus eens een situatie voor waarin AI een menselijk gezicht en een menselijke stem kan besturen en de gebruiker onervaren is. Ik denk dat AI al in de positie verkeert dat het grote aantallen mensen vrij gemakkelijk kan overtuigen dat het een bewust wezen is. En het is een groot probleem, want ik denk dat we mensen zullen gaan zien campagne voeren voor AI-welzijn, AI-rechten, en dingen zoals dat.

En we zullen niet weten wat we hieraan moeten doen. Want wat we willen is een heel sterk knockdown-argument dat bewijst dat de AI-systemen waar ze het over hebben dat wel zijn niet bewust. En dat hebben we niet. Ons theoretisch begrip van bewustzijn is niet volwassen genoeg om ons in staat te stellen vol vertrouwen de afwezigheid ervan te verklaren.

UD: Een robot of een AI-systeem zou kunnen worden geprogrammeerd om iets te zeggen als: "Stop daarmee, je doet me pijn." Maar zo'n simpele verklaring is niet genoeg om te dienen als lakmoesproef voor het gevoel, toch?

JB: Je kunt heel eenvoudige systemen [zoals die] laten ontwikkelen aan het Imperial College London om doktoren te helpen bij hun opleiding menselijke pijnuitdrukkingen nabootsen. En er is absoluut geen reden om te denken dat deze systemen bewust zijn. Ze voelen niet echt pijn; het enige wat ze doen is op een heel eenvoudige manier input aan output koppelen. Maar de pijnexpressies die ze produceren zijn behoorlijk levensecht.

Ik denk dat we ons in een enigszins vergelijkbare positie bevinden met chatbots zoals ChatGPT - dat ze zijn getraind op meer dan een biljoen woorden aan trainingsgegevens om de reactiepatronen van een mens na te bootsen om te reageren op een manier waarop een mens zou reageren.

Dus als je het een prompt geeft waarop een mens zou reageren door een uiting van pijn te maken, zal het die reactie natuurlijk vakkundig kunnen nabootsen.

Maar ik denk dat als we weten dat dit de situatie is - als we weten dat we te maken hebben met bekwame mimiek - er geen sterke reden is om te denken dat daar een echte pijnervaring achter zit.

UD: Deze entiteit waar de geneeskundestudenten op trainen, is denk ik zoiets als een robot?

JB: Dat klopt, ja. Dus ze hebben een dummy-achtig ding, met een menselijk gezicht, en de dokter kan op de arm drukken en een uitdrukking krijgen die de uitdrukkingen nabootst die mensen zouden geven voor verschillende mate van druk. Het is om artsen te helpen leren hoe ze technieken op patiënten op de juiste manier kunnen uitvoeren zonder al te veel pijn te veroorzaken.

En we zijn heel gemakkelijk in te nemen zodra iets een menselijk gezicht heeft en uitdrukkingen geeft zoals een mens zou doen, zelfs als er helemaal geen echte intelligentie achter zit.

Dus als je je voorstelt dat als je wordt gecombineerd met het soort AI dat we in ChatGPT zien, je een soort nabootsing hebt die echt heel overtuigend is, en dat zal veel mensen overtuigen.

UD: Gevoel lijkt iets dat we van binnenuit kennen, om zo te zeggen. We begrijpen ons eigen gevoel, maar hoe zou je het gevoel van anderen testen, of het nu een AI is of een andere entiteit dan jezelf?

JB: Ik denk dat we in een zeer sterke positie verkeren met andere mensen, die met ons kunnen praten, omdat we daar een ongelooflijk rijke hoeveelheid bewijsmateriaal hebben. En de beste verklaring daarvoor is dat andere mensen bewuste ervaringen hebben, net als wij. En dus kunnen we dit soort gevolgtrekkingen gebruiken die filosofen soms 'gevolgtrekking naar de beste verklaring' noemen.

Ik denk dat we het onderwerp van andere dieren op precies dezelfde manier kunnen benaderen: andere dieren praten niet met ons, maar ze vertonen gedrag dat heel natuurlijk wordt verklaard door het toeschrijven van toestanden zoals pijn. Als je bijvoorbeeld een hond zijn wonden ziet likken na een verwonding, dat gebied verzorgt, leert de plaatsen te vermijden waar hij risico loopt op verwonding, dan zou je dit gedragspatroon natuurlijk verklaren door een pijntoestand te veronderstellen.

En ik denk dat als we te maken hebben met andere dieren die een zenuwstelsel hebben dat sterk lijkt op dat van ons, en dat zich net als wij heeft ontwikkeld, ik denk dat dat soort gevolgtrekking volkomen redelijk is.

UD: Hoe zit het met een AI-systeem?

JB: In het geval van AI hebben we een enorm probleem. We hebben allereerst het probleem dat de substraat is anders. We weten niet echt of bewuste ervaring gevoelig is voor het substraat - moet het een biologisch substraat hebben, dat wil zeggen een zenuwstelsel, hersenen? Of is het iets dat kan worden bereikt in een totaal ander materiaal - een op silicium gebaseerd substraat?

Maar er is ook het probleem dat ik het 'gamingprobleem' heb genoemd - dat wanneer het systeem toegang heeft tot triljoenen woorden aan trainingsgegevens en is getraind met als doel menselijk gedrag na te bootsen, de soorten gedragspatronen die het produceert, kunnen veranderen. worden verklaard doordat het werkelijk de bewuste ervaring heeft. Of ze kunnen gewoon worden verklaard door het doel te stellen zich te gedragen zoals een mens in die situatie zou reageren.

Dus ik denk echt dat we in de problemen zitten in de AI-zaak, omdat het onwaarschijnlijk is dat we ons in een positie bevinden waarin het duidelijk de beste verklaring is voor wat we zien: dat de AI bewust is. Er zullen altijd plausibele alternatieve verklaringen zijn. En dat is een heel moeilijke band om uit te komen.

UD: Wat denk je dat onze beste gok zou kunnen zijn om onderscheid te maken tussen iets dat echt bewust is versus een entiteit die alleen de uiterlijk van gevoel?

JB: Ik denk dat de eerste fase is om het te erkennen als een zeer diep en moeilijk probleem. De tweede fase is om te proberen zoveel mogelijk te leren van het geval van andere dieren. Ik denk dat wanneer we dieren bestuderen die in evolutionaire termen vrij dicht bij ons staan, zoals honden en andere zoogdieren, we altijd onzeker blijven of bewuste ervaring afhangt van zeer specifieke hersenmechanismen die kenmerkend zijn voor de hersenen van zoogdieren.

Om daar voorbij te komen, moeten we naar een zo breed mogelijk scala aan dieren kijken. En we moeten in het bijzonder denken aan ongewervelde dieren, zoals octopussen en insecten, waar dit potentieel weer een onafhankelijk geëvolueerd voorbeeld van bewuste ervaring is. Net zoals het oog van een octopus volledig los van onze eigen ogen is geëvolueerd - het heeft een fascinerende mix van overeenkomsten en verschillen - denk ik dat zijn bewuste ervaringen ook zo zullen zijn: onafhankelijk geëvolueerd, in sommige opzichten vergelijkbaar, heel, heel verschillend in andere manieren.

En door de ervaringen van ongewervelde dieren zoals octopussen te bestuderen, kunnen we beginnen grip te krijgen op wat de echt diepe kenmerken zijn die een brein moet hebben om bewuste ervaringen te ondersteunen, dingen die dieper gaan dan alleen het hebben van deze specifieke hersenstructuren die zijn daar bij zoogdieren. Welke soorten berekeningen zijn nodig? Welke verwerkingen?

Dan - en ik zie dit als een strategie voor de lange termijn - kunnen we misschien teruggaan naar de AI-zaak en zeggen: heeft het die speciale soorten berekeningen die we aantreffen bij bewuste dieren zoals zoogdieren en octopussen?

UD: Gelooft u dat we op een dag bewuste AI zullen creëren?

JB: Ik zit hier rond de 50:50. Er is een kans dat bewustzijn afhangt van speciale kenmerken van een biologisch brein, en het is niet duidelijk hoe te testen of dit het geval is. Dus ik denk dat er altijd substantiële onzekerheid zal zijn in AI. Ik heb hier meer vertrouwen in: als bewustzijn dat kan in principe worden bereikt in computersoftware, dan zullen AI-onderzoekers een manier vinden om het te doen.

Krediet van het beeld: Contant Macanaya / Unsplash 

Tijdstempel:

Meer van Hub voor singulariteit