At give AI en følelse af empati kunne beskytte os mod dens værste impulser

At give AI en følelse af empati kunne beskytte os mod dens værste impulser

Giving AI a Sense of Empathy Could Protect Us From Its Worst Impulses PlatoBlockchain Data Intelligence. Vertical Search. Ai.

I filmen M3GAN, en legetøjsudvikler giver sin nyligt forældreløse niece, Cady, en AI-drevet robot i barnestørrelse med ét mål: at beskytte Cady. Robotten M3GAN sympatiserer med Cadys traume. Men det går snart sydpå, hvor robotten på størrelse med en halv liter angriber alt og enhver, som den opfatter som en trussel mod Cady.

M3GAN var ikke ondsindet. Det fulgte sin programmering, men uden nogen omsorg eller respekt for andre væsener - i sidste ende inklusive Cady. I en vis forstand blev M3GAN en AI-sociopat, da det engagerede sig i den fysiske verden.

Sociopathic AI isn’t just a topic explored in Hollywood. To Dr. Leonardo Christov-Moore at the University of Southern California and colleagues, it’s high time to build artificial empathy into AI—and nip any antisocial behaviors in the bud.

In en stil udgivet i sidste uge i Science Robotics, holdet argumenterede for en neurovidenskab perspektiv for at indlejre empati i kodelinjer. Nøglen er at tilføje "tarm-instinkter" for at overleve - for eksempel behovet for at undgå fysisk smerte. Med en fornemmelse af, hvordan det kan blive "skadet", kunne en AI-agent så kortlægge denne viden til andre. Det ligner den måde, mennesker vurderer hinandens følelser på: Jeg forstår og mærker din smerte, fordi jeg har været der før.

AI-agenter baseret på empati tilføjer et ekstra lag af autoværn, der "forhindrer irreversibel alvorlig skade." sagde Christov-Moore. Det er meget svært at gøre skade på andre, hvis du digitalt efterligner – og dermed "oplever" konsekvenserne.

Digital da Vinci

Den hurtige fremkomst af ChatGPT og andre store generative modeller overraskede alle og rejste straks spørgsmål om, hvordan de kan integreres i vores verden. Nogle lande er allerede forbudt teknologien på grund af cybersikkerhedsrisici og privatlivsbeskyttelse. AI-eksperter slog også alarmklokkerne i et åbent brev tidligere i år der advarede om teknologiens "dybe risici for samfundet."

Vi tilpasser os stadig til en AI-drevet verden. Men da disse algoritmer i stigende grad væver sig ind i samfundets struktur, er det på høje tid at se fremad til deres potentielle konsekvenser. Hvordan guider vi AI-agenter til ikke at gøre skade, men i stedet arbejde med menneskeheden og hjælpe samfundet?

Det er et hårdt problem. De fleste AI-algoritmer forbliver en sort boks. Vi ved ikke, hvordan eller hvorfor mange algoritmer genererer beslutninger.

Alligevel har agenterne en uhyggelig evne til at komme med "fantastiske og også mystiske" løsninger, der er kontraintuitive for mennesker, sagde Christov-Moore. Giv dem en udfordring - for eksempel at finde måder at bygge så mange terapeutiske proteiner som muligt - og de vil ofte forestille sig løsninger, som mennesker ikke engang har overvejet.

Ubundet kreativitet har en pris. "Problemet er, at det er muligt, at de kan vælge en løsning, der kan resultere i katastrofal irreversibel skade på levende væsener, og især mennesker," sagde Christov-Moore.

At tilføje en dosis kunstig empati til AI kan være det stærkeste værn, vi har på dette tidspunkt.

Lad os tale om følelser

Empati er ikke sympati.

Som et eksempel: Jeg hældte for nylig hydrogenperoxid på et friskt tre-tommer bredt sår. Sympati er, når du forstår, at det var smertefuldt og viser omsorg og medfølelse. Empati er, når du levende forestiller dig, hvordan smerten ville føles på dig (og krympe).

Tidligere forskning inden for neurovidenskab viser, at empati groft sagt kan opdeles i to hovedkomponenter. Den ene er rent logisk: du observerer nogens adfærd, afkoder deres oplevelse og udleder, hvad der sker med dem.

De fleste eksisterende metoder til kunstig empati tager denne vej, men det er et hurtigt spor til sociopatisk AI. I lighed med berygtede menneskelige modparter kan disse agenter efterligne følelser, men ikke opleve dem, så de kan forudsige og manipulere disse følelser i andre uden nogen moralsk grund til at undgå skade eller lidelse.

Den anden komponent fuldender billedet. Her får AI en følelse af sårbarhed delt på tværs af mennesker og andre systemer.

"Hvis jeg bare ved, hvilken tilstand du er i, men jeg ikke deler det overhovedet, så er der ingen grund til, at det ville bevæge mig, medmindre jeg havde en form for meget stærk moralsk kodeks, jeg havde udviklet," sagde Christov-Moore .

En sårbar AI

En måde at kode sårbarhed på er at give AI en følelse af at holde sig i live.

Mennesker bliver sultne. Overophedet. Frostbidt. Opstemt. Deprimeret. Takket være evolutionen har vi et smalt, men fleksibelt vindue for hver biologisk måling, der hjælper med at opretholde den generelle fysiske og mentale sundhed, kaldet homeostase. At kende vores krops og sinds evner gør det muligt at finde de løsninger, der er mulige, når vi bliver kastet ind i uventede dynamiske miljøer.

Disse biologiske begrænsninger er ikke en fejl, men snarere en funktion til at skabe empati i AI, sagde forfatterne.

En tidligere idé til programmering af kunstig empati i AI er at skrive eksplicitte regler for rigtigt versus forkert. Det kommer med åbenlyse problemer. Regelbaserede systemer er stive og svære at navigere rundt i moralsk gråzoner. De er også svære at etablere, idet forskellige kulturer har vidt forskellige rammer for, hvad der er acceptabelt.

Derimod er drivkraften efter overlevelse universel og et udgangspunkt for at opbygge sårbar AI.

"I sidste ende er det vigtigste, at din hjerne ... skal beskæftige sig med, hvordan man opretholder en sårbar krop i verden, og din vurdering af, hvor godt du klarer det," sagde Christov-Moore.

Disse data manifesterer sig i bevidstheden som følelser, der påvirker vores valg: behageligt, ubehageligt, gå her, spis der. Disse drev er "den underliggende score til filmen i vores liv, og giver os en fornemmelse af [hvis tingene] går godt eller de ikke er," sagde Christov-Moore. Uden en sårbar krop, der skal vedligeholdes - enten digitalt eller fysisk som robotter - kan en AI-agent ikke have hud i spillet til et samarbejdsliv, der driver den mod eller væk fra bestemt adfærd.

Så hvordan bygger man en sårbar AI?

"Du skal opleve noget som lidelse," sagde Christov-Moore.

Holdet udarbejdede en praktisk plan. Hovedmålet er at opretholde homeostase. I det første trin strejfer AI-"barnet" rundt i et miljø fyldt med forhindringer, mens han søger efter gavnlige belønninger og holder sig selv i live. Dernæst begynder det at udvikle en idé om, hvad andre tænker ved at se dem. Det er som en første date: AI-barnet forsøger at forestille sig, hvad en anden AI "tænker" (hvad med nogle friske blomster?), og når det er forkert (den anden AI hader blomster), lider han af en slags tristhed og justerer sine forventninger. Med flere forsøg lærer AI'en til sidst og tilpasser sig den andens præferencer.

Endelig kortlægger AI den andens interne modeller på sig selv, mens den bevarer sin egen integritet. Når den træffer en beslutning, kan den samtidig overveje flere synspunkter ved at veje hvert input for en enkelt beslutning – hvilket igen gør det smartere og mere samarbejdsvilligt.

Indtil videre er disse kun teoretiske scenarier. I lighed med mennesker er disse AI-agenter ikke perfekte. De træffer dårlige beslutninger, når de er stressede til tiden og ignorerer langsigtede konsekvenser.

Når det er sagt, "skaber AI et afskrækkende middel indbygget i selve dens intelligens ... som afskrækker det fra beslutninger, der kan forårsage noget lignende skade på andre levende agenter såvel som sig selv," sagde Christov-Moore. "Ved at balancere skade, velvære og blomstring i flere modstridende scenarier i denne verden, kan AI nå frem til kontraintuitive løsninger på presserende problemer på civilisationsniveau, som vi aldrig engang har tænkt på. Hvis vi kan klare denne næste forhindring... kan AI gå fra at være en risiko på civilisationsniveau til den største allierede, vi nogensinde har haft."

Billede Credit: Mohamed Hassan fra Pixabay

Tidsstempel:

Mere fra Singularitet Hub