Hvordan at studere Animal Sentience kunne hjælpe med at løse det etiske puslespil ved Sentient AI

Hvordan at studere Animal Sentience kunne hjælpe med at løse det etiske puslespil ved Sentient AI

How Studying Animal Sentience Could Help Solve the Ethical Puzzle of Sentient AI PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Kunstig intelligens er gået så hurtigt frem, at selv nogle af de videnskabsmænd, der er ansvarlige for mange nøgleudviklinger, er bekymrede over forandringstempoet. Tidligere i år udstedte mere end 300 fagfolk, der arbejder med kunstig intelligens, og andre berørte offentlige personer en stump advarsel om den fare, teknologien udgør, ved at sammenligne risikoen med risikoen for pandemier eller atomkrig.

Lige under overfladen af ​​disse bekymringer lurer spørgsmålet om maskinbevidsthed. Selvom der ikke er "ingen hjemme" inde i dagens AI'er, spekulerer nogle forskere på, om de en dag kan udvise et glimt af bevidsthed - eller mere. Hvis det sker, vil det rejse en række moralske og etiske bekymringer, siger Jonathan Birch, professor i filosofi ved London School of Economics and Political Science.

Efterhånden som AI-teknologien springer fremad, har etiske spørgsmål, der er udløst af menneske-AI-interaktioner, fået en ny påtrængning. "Vi ved ikke, om vi skal bringe dem ind i vores moralske cirkel eller udelukke dem," sagde Birch. »Vi ved ikke, hvad konsekvenserne bliver. Og det tager jeg alvorligt som en reel risiko, som vi bør begynde at tale om. Egentlig ikke fordi jeg tror ChatGPT er i den kategori, men fordi jeg ikke ved, hvad der kommer til at ske i de næste 10 eller 20 år.”

I mellemtiden, siger han, kan vi gøre klogt i at studere andre ikke-menneskelige sind - som dyrs. Birch leder universitetets Foundations of Animal Sentience-projekt, en EU-finansieret indsats, der "har til formål at forsøge at gøre nogle fremskridt med de store spørgsmål om dyrs sansning," som Birch udtrykte det. ”Hvordan udvikler vi bedre metoder til at studere dyrenes bevidste oplevelser videnskabeligt? Og hvordan kan vi sætte den nye videnskab om dyrs sansning i gang, for at designe bedre politikker, love og måder at passe dyr på?"

Vores interview blev gennemført over Zoom og via e-mail, og er blevet redigeret for længde og klarhed.

(Denne artikel blev oprindeligt offentliggjort den Undark. Læs oprindelige artikel.)

Ikke mørk: Der har været en løbende debat om, hvorvidt AI kan være bevidst eller følende. Og der synes at være et parallelt spørgsmål om, hvorvidt AI kan synes at være sansende. Hvorfor er den skelnen så vigtig?

Jonathan Birch: Jeg synes, det er et kæmpe problem, og noget der burde gøre os ret bange. Selv nu er AI-systemer ganske i stand til at overbevise deres brugere om deres sansning. Det så vi sidste år med Blake Lemoine, Google-ingeniøren, der blev overbevist at det system, han arbejdede på, var sansende – og det er netop, når outputtet er ren tekst, og når brugeren er en yderst dygtig AI-ekspert.

Så forestil dig bare en situation, hvor AI er i stand til at kontrollere et menneskeligt ansigt og en menneskelig stemme, og brugeren er uerfaren. Jeg tror, ​​at AI allerede er i den position, hvor den ret nemt kan overbevise et stort antal mennesker om, at det er et sansende væsen. Og det er et stort problem, for jeg tror, ​​vi vil begynde at se folk, der kampagner for AI-velfærd, AI-rettigheder, og sådan noget.

Og vi ved ikke, hvad vi skal gøre ved dette. Fordi det, vi gerne vil have, er et virkelig stærkt knockdown-argument, der beviser, at de AI-systemer, de taler om, er ikke bevidst. Og det har vi ikke. Vores teoretiske forståelse af bevidsthed er ikke moden nok til at tillade os selvsikkert at erklære dens fravær.

UD: En robot eller et AI-system kunne programmeres til at sige noget i stil med: "Hold op med det, du gør mig ondt." Men en simpel erklæring af den slags er ikke nok til at tjene som en lakmusprøve for sansning, vel?

JB: Du kan have meget simple systemer [som dem] udviklet på Imperial College London for at hjælpe læger med deres træning efterligne menneskelige smerteudtryk. Og der er absolut ingen grund til at tro, at disse systemer er sansende. De føler ikke rigtig smerte; alt, hvad de gør, er at kortlægge input til output på en meget enkel måde. Men de smerteudtryk, de frembringer, er ret naturtro.

Jeg tror, ​​vi er i en noget lignende position med chatbots som ChatGPT – at de er trænet på over en billion ord af træningsdata for at efterligne et menneskes responsmønstre til at reagere på måder, som et menneske ville reagere.

Så selvfølgelig, hvis du giver det en prompt, som et menneske ville reagere på ved at give et udtryk for smerte, vil det være i stand til dygtigt at efterligne det svar.

Men jeg tror, ​​at når vi ved, at det er situationen - når vi ved, at vi har at gøre med dygtig mimik - er der ingen stærk grund til at tro, at der er nogen egentlig smerteoplevelse bag det.

UD: Denne enhed, som de medicinstuderende træner i, gætter jeg på, at det ligner en robot?

JB: Det er rigtigt, ja. Så de har en dummy-lignende ting med et menneskeligt ansigt, og lægen er i stand til at trykke på armen og få et udtryk, der efterligner de udtryk, mennesker ville give ved forskellige grader af tryk. Det er for at hjælpe læger med at lære, hvordan man udfører teknikker på patienter på passende vis uden at forårsage for meget smerte.

Og vi bliver meget let optaget, så snart noget har et menneskeligt ansigt og giver udtryk, som et menneske ville, selvom der slet ikke er nogen reel intelligens bag det.

Så hvis du forestiller dig, at blive parret med den slags AI, vi ser i ChatGPT, har du en slags mimik, der virkelig er meget overbevisende, og som vil overbevise mange mennesker.

UD: Følelse virker som noget, vi kender indefra, så at sige. Vi forstår vores egen sansning - men hvordan ville du teste for sansning hos andre, hvad enten det er en AI eller en anden entitet ud over en selv?

JB: Jeg tror, ​​vi er i en meget stærk position med andre mennesker, som kan tale med os, for der har vi en utrolig rig mængde beviser. Og den bedste forklaring på det er, at andre mennesker har bevidste oplevelser, ligesom vi har. Og så vi kan bruge denne form for slutning, som filosoffer nogle gange kalder "slutning til den bedste forklaring."

Jeg tror, ​​vi kan nærme os emnet andre dyr på nøjagtig samme måde – at andre dyr ikke taler til os, men de udviser adfærd, der er meget naturligt forklaret ved at tilskrive tilstande som smerte. For eksempel, hvis du ser en hund slikke sine sår efter en skade, pleje det område, lære at undgå de steder, hvor den er i risiko for at blive skadet, vil du naturligvis forklare dette adfærdsmønster ved at angive en smertetilstand.

Og jeg tror, ​​at når vi har at gøre med andre dyr, der har nervesystemer, der ligner vores eget, og som har udviklet sig ligesom vi har, synes jeg, at den slags slutninger er helt rimelige.

UD: Hvad med et AI-system?

JB: I AI-sagen har vi et kæmpe problem. Vi har først og fremmest det problem, at substrat er anderledes. Vi ved ikke rigtig, om bevidst oplevelse er følsom over for substratet – skal den have et biologisk substrat, det vil sige et nervesystem, en hjerne? Eller er det noget, der kan opnås i et helt andet materiale - et siliciumbaseret substrat?

Men der er også det problem, som jeg har kaldt "spilproblemet" - at når systemet har adgang til billioner af ord med træningsdata og er blevet trænet med det mål at efterligne menneskelig adfærd, kunne den slags adfærdsmønstre, det producerer. forklares ved, at det reelt har den bevidste oplevelse. Eller alternativt kan de bare forklares ved, at det er sat som mål at opføre sig, som et menneske ville reagere i den situation.

Så jeg tror virkelig, at vi er i problemer i AI-sagen, for det er usandsynligt, at vi befinder os i en position, hvor det klart er den bedste forklaring på det, vi ser – at AI'en er bevidst. Der vil altid være plausible alternative forklaringer. Og det er en meget svær binding at komme ud af.

UD: Hvad forestiller du dig kan være vores bedste bud på at skelne mellem noget, der faktisk er bevidst, versus en enhed, der bare har udseende af sansning?

JB: Jeg tror, ​​at den første fase er at anerkende det som et meget dybt og vanskeligt problem. Den anden fase er at prøve at lære så meget som muligt af andre dyrs tilfælde. Jeg tror, ​​at når vi studerer dyr, der er ret tæt på os, i evolutionære termer, som hunde og andre pattedyr, bliver vi altid efterladt usikre på, om bevidst oplevelse kan afhænge af meget specifikke hjernemekanismer, der er karakteristiske for pattedyrshjernen.

For at komme forbi det, er vi nødt til at se på en så bred vifte af dyr, som vi kan. Og vi skal især tænke på hvirvelløse dyr, som blæksprutter og insekter, hvor dette potentielt er endnu et uafhængigt udviklet eksempel på bevidst oplevelse. Ligesom øjet på en blæksprutte har udviklet sig fuldstændig adskilt fra vores egne øjne – det har denne fascinerende blanding af ligheder og forskelle – tror jeg, at dets bevidste oplevelser også vil være sådan: uafhængigt udviklet, ens på nogle måder, meget, meget forskellige i andre veje.

Og gennem at studere erfaringerne fra hvirvelløse dyr som blæksprutter, kan vi begynde at få fat i, hvad de virkelig dybe træk er, som en hjerne skal have for at understøtte bevidste oplevelser, ting, der går dybere end blot at have disse specifikke hjernestrukturer, der er der hos pattedyr. Hvilken slags beregning er nødvendig? Hvilken slags behandling?

Så – og jeg ser dette som en strategi på lang sigt – kan vi måske gå tilbage til AI-sagen og sige, ja, har den de specielle former for beregninger, som vi finder hos bevidste dyr som pattedyr og blæksprutter?

UD: Tror du på, at vi en dag vil skabe sansende AI?

JB: Jeg er omkring 50:50 på dette. Der er en chance for, at sansning afhænger af særlige træk ved en biologisk hjerne, og det er ikke klart, hvordan man tester, om det gør det. Så jeg tror, ​​at der altid vil være betydelig usikkerhed i AI. Jeg er mere sikker på dette: Hvis bevidstheden kan i princippet opnås i computersoftware, så vil AI-forskere finde en måde at gøre det på.

Billede Credit: Kontant Macanaya / Unsplash 

Tidsstempel:

Mere fra Singularitet Hub