Hvordan å studere dyrefølelse kunne bidra til å løse det etiske puslespillet til Sentient AI

Hvordan å studere dyrefølelse kunne bidra til å løse det etiske puslespillet til Sentient AI

Hvordan å studere dyrefølelse kunne bidra til å løse det etiske puslespillet ved Sentient AI PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Kunstig intelligens har utviklet seg så raskt at til og med noen av forskerne som er ansvarlige for mange viktige utviklinger er bekymret over endringstakten. Tidligere i år utstedte mer enn 300 fagfolk som jobber innen AI og andre bekymrede offentlige personer en sløv advarsel om faren teknologien utgjør, og sammenligne risikoen med pandemier eller atomkrig.

Spørsmålet om maskinbevissthet lurer rett under overflaten av disse bekymringene. Selv om det er "ingen hjemme" inne i dagens AI-er, lurer noen forskere på om de en dag kan vise et glimt av bevissthet – eller mer. Hvis det skjer, vil det reise en rekke moralske og etiske bekymringer, sier Jonathan Birch, professor i filosofi ved London School of Economics and Political Science.

Etter hvert som AI-teknologien hopper fremover, har etiske spørsmål utløst av interaksjoner mellom menneske og AI fått ny press. "Vi vet ikke om vi skal bringe dem inn i vår moralske sirkel, eller ekskludere dem," sa Birch. – Vi vet ikke hva konsekvensene vil bli. Og det tar jeg på alvor som en reell risiko som vi bør begynne å snakke om. Egentlig ikke fordi jeg tror ChatGPT er i den kategorien, men fordi jeg ikke vet hva som kommer til å skje de neste 10 eller 20 årene.»

I mellomtiden, sier han, kan det være lurt å studere andre ikke-menneskelige sinn – som dyrs. Birch leder universitetets Foundations of Animal Sentience-prosjektet, en EU-finansiert innsats som "tar sikte på å prøve å gjøre noen fremskritt på de store spørsmålene om dyrs sansing," som Birch sa det. «Hvordan utvikler vi bedre metoder for å studere bevisste erfaringer til dyr vitenskapelig? Og hvordan kan vi sette den fremvoksende vitenskapen om dyrs sans for å fungere, for å utforme bedre retningslinjer, lover og måter å ta vare på dyr på?»

Intervjuet vårt ble gjennomført over Zoom og via e-post, og har blitt redigert for lengde og klarhet.

(Denne artikkelen ble opprinnelig publisert på Undark. Les opprinnelige artikkelen.)

Ikke mørk: Det har vært en pågående debatt om hvorvidt AI kan være bevisst eller sansende. Og det ser ut til å være et parallelt spørsmål om AI kan synes å være sansende. Hvorfor er det skillet så viktig?

Jonathan Birch: Jeg tror det er et stort problem, og noe som burde gjøre oss ganske redde, faktisk. Selv nå er AI-systemer ganske i stand til å overbevise brukerne om sansen deres. Vi så det i fjor med Blake Lemoine, Google-ingeniøren som ble overbevist at systemet han jobbet med var sansende – og det er akkurat når utdataene er rent tekst, og når brukeren er en svært dyktig AI-ekspert.

Så bare forestill deg en situasjon der AI er i stand til å kontrollere et menneskelig ansikt og en menneskelig stemme og brukeren er uerfaren. Jeg tror AI allerede er i en posisjon der den kan overbevise et stort antall mennesker om at det er et sansende vesen ganske enkelt. Og det er et stort problem, fordi jeg tror vi vil begynne å se folk som kampanjer for AI-velferd, AI-rettigheter, og slike ting.

Og vi vet ikke hva vi skal gjøre med dette. Fordi det vi ønsker er et veldig sterkt knockdown-argument som beviser at AI-systemene de snakker om er ikke bevisst. Og det har vi ikke. Vår teoretiske forståelse av bevissthet er ikke moden nok til å tillate oss å trygt erklære fraværet.

UD: En robot eller et AI-system kan programmeres til å si noe sånt som: "Stopp det, du skader meg." Men en enkel erklæring av den typen er ikke nok til å tjene som en lakmusprøve for sansning, ikke sant?

JB: Du kan ha veldig enkle systemer [som de] utviklet ved Imperial College London for å hjelpe leger med opplæringen deres etterligne menneskelige smerteuttrykk. Og det er absolutt ingen grunn til å tro at disse systemene er sansende. De føler egentlig ikke smerte; alt de gjør er å kartlegge innganger til utganger på en veldig enkel måte. Men smerteuttrykkene de produserer er ganske naturtro.

Jeg tror vi er i en noe lignende posisjon med chatbots som ChatGPT – at de er trent på over en billion ord med treningsdata for å etterligne responsmønstrene til et menneske til å reagere på måter som et menneske ville reagere.

Så, selvfølgelig, hvis du gir den en oppfordring som et menneske vil svare på ved å gi et uttrykk for smerte, vil det være i stand til å etterligne den responsen på en dyktig måte.

Men jeg tror at når vi vet at det er situasjonen – når vi vet at vi har å gjøre med dyktig mimikk – er det ingen sterk grunn til å tro at det er noen faktisk smerteopplevelse bak det.

UD: Denne enheten som medisinstudentene trener på, jeg tipper det er noe sånt som en robot?

JB: Det stemmer, ja. Så de har en dummy-lignende ting, med et menneskeansikt, og legen er i stand til å trykke på armen og få et uttrykk som etterligner uttrykkene mennesker ville gitt for ulike grader av press. Det er for å hjelpe leger å lære hvordan de skal utføre teknikker på pasienter på riktig måte uten å forårsake for mye smerte.

Og vi blir veldig lett tatt inn så snart noe har et menneskelig ansikt og gir uttrykk som et menneske ville gjort, selv om det ikke er noen reell intelligens bak det i det hele tatt.

Så hvis du forestiller deg at det å være sammenkoblet med den typen AI vi ser i ChatGPT, har du en slags mimikk som virkelig er veldig overbevisende, og som vil overbevise mange mennesker.

UD: Sentience virker som noe vi kjenner fra innsiden, for å si det sånn. Vi forstår vår egen sans – men hvordan vil du teste for sansen hos andre, enten det er en kunstig intelligens eller en annen enhet utenfor deg selv?

JB: Jeg tror vi er i en veldig sterk posisjon med andre mennesker, som kan snakke med oss, for der har vi en utrolig rik mengde bevis. Og den beste forklaringen på det er at andre mennesker har bevisste opplevelser, akkurat som vi gjør. Og derfor kan vi bruke denne typen slutninger som filosofer noen ganger kaller "slutning til den beste forklaringen."

Jeg tror vi kan nærme oss temaet andre dyr på nøyaktig samme måte - at andre dyr ikke snakker til oss, men de viser atferd som er veldig naturlig forklart ved å tilskrive tilstander som smerte. For eksempel, hvis du ser en hund slikke sårene sine etter en skade, pleie det området, lære å unngå stedene der den er i fare for skade, vil du naturligvis forklare dette atferdsmønsteret ved å angi en smertetilstand.

Og jeg tror at når vi har å gjøre med andre dyr som har nervesystemer ganske likt vårt eget, og som har utviklet seg akkurat som vi har, tror jeg at den typen slutninger er helt rimelige.

UD: Hva med et AI-system?

JB: I AI-saken har vi et stort problem. Vi har først og fremst problemet at substrat er annerledes. Vi vet egentlig ikke om bevisst opplevelse er sensitiv for underlaget – må det ha et biologisk underlag, det vil si et nervesystem, en hjerne? Eller er det noe som kan oppnås i et helt annet materiale - et silisiumbasert substrat?

Men det er også problemet som jeg har kalt "spillproblemet" - at når systemet har tilgang til billioner av ord med treningsdata, og har blitt trent med målet om å etterligne menneskelig atferd, kan den slags atferdsmønstre det produserer. forklares med at det virkelig har den bevisste opplevelsen. Eller alternativt kan de bare forklares med at det er satt som mål å oppføre seg som et menneske ville reagere i den situasjonen.

Så jeg tror virkelig vi er i trøbbel i AI-saken, fordi vi neppe finner oss selv i en posisjon hvor det helt klart er den beste forklaringen på det vi ser – at AI-en er bevisst. Det vil alltid være plausible alternative forklaringer. Og det er en veldig vanskelig binding å komme seg ut av.

UD: Hva tror du kan være vårt beste alternativ for å skille mellom noe som faktisk er bevisst versus en enhet som bare har utseende av sansen?

JB: Jeg tror det første trinnet er å gjenkjenne det som et veldig dypt og vanskelig problem. Den andre fasen er å prøve å lære så mye vi kan fra tilfellet med andre dyr. Jeg tror at når vi studerer dyr som er ganske nær oss, i evolusjonære termer, som hunder og andre pattedyr, blir vi alltid usikre på om bevisst opplevelse kan avhenge av veldig spesifikke hjernemekanismer som er særegne for pattedyrhjernen.

For å komme forbi det, må vi se på et så bredt spekter av dyr som vi kan. Og vi må tenke spesielt på virvelløse dyr, som blekkspruter og insekter, der dette potensielt er en annen uavhengig utviklet forekomst av bevisst opplevelse. Akkurat som øyet til en blekksprut har utviklet seg fullstendig atskilt fra våre egne øyne – det har denne fascinerende blandingen av likheter og forskjeller – tror jeg dens bevisste opplevelser også vil være slik: uavhengig utviklet, lik på noen måter, veldig, veldig forskjellige i andre måter.

Og gjennom å studere opplevelsene til virvelløse dyr som blekkspruter, kan vi begynne å få litt grep om hva de virkelig dype trekkene er som en hjerne må ha for å støtte bevisste opplevelser, ting som går dypere enn bare å ha disse spesifikke hjernestrukturene som er der hos pattedyr. Hva slags beregninger trengs? Hva slags behandling?

Da – og jeg ser på dette som en langsiktig strategi – kan vi kanskje gå tilbake til AI-saken og si, vel, har den de spesielle typene beregninger som vi finner hos bevisste dyr som pattedyr og blekkspruter?

UD: Tror du at vi en dag vil skape sansende AI?

JB: Jeg er rundt 50:50 på dette. Det er en sjanse for at følelse avhenger av spesielle trekk ved en biologisk hjerne, og det er ikke klart hvordan man tester om det gjør det. Så jeg tror det alltid vil være betydelig usikkerhet i AI. Jeg er mer sikker på dette: Hvis bevisstheten kan i prinsippet oppnås i dataprogramvare, så vil AI-forskere finne en måte å gjøre det på.

Bilde Credit: Cash Macanaya / Unsplash 

Tidstempel:

Mer fra Singularity Hub