OpenAI:s ChatGPT är ett moraliskt korrumperande inflytande

OpenAI:s ChatGPT är ett moraliskt korrumperande inflytande

OpenAI:s konversationsspråksmodell ChatGPT har mycket att säga, men kommer sannolikt att leda dig vilse om du ber den om moralisk vägledning.

Introducerades i november, ChatGPT är den senaste av flera nyligen släppta AI-modeller som väcker intresse och oro för de kommersiella och sociala konsekvenserna av mekaniserad innehållsrekombination och uppstötningar. Dessa inkluderar DALL-E, Stable Diffusion, Codex och GPT-3.

Medan DALL-E och Stable Diffusion har höjt på ögonbrynen, finansiering och rättstvister genom att inta konst utan tillåtelse och rekonstruera konstigt välbekanta, ibland suggestiva bilder på begäran, har ChatGPT svarat på frågeuppmaningar med acceptabel koherens.

Eftersom det är standarden för offentlig diskurs, har förståsigpåare blivit tillräckligt imponerade för att de förutser en framtida iteration av en AI-informerad chatbot som utmanar överhögheten hos Google Sök och gör alla möjliga andra en gång främst mänskliga arbeten, som att skriva felaktiga ekonomiska nyheter eller öka utbudet av osäker kod.

Ändå kan det vara för tidigt att lita för mycket på ChatGPTs visdom, en position OpenAI lätt medger genom att göra det klart att ytterligare förfining krävs. "ChatGPT skriver ibland rimliga men felaktiga eller meningslösa svar", varnar utvecklingslabbet och tillägger att när man tränar en modell med förstärkningsinlärning, "finns det för närvarande ingen källa till sanning."

En trio av boffins anslutna till institutioner i Tyskland och Danmark har understrukit den punkten genom att finna att ChatGPT inte har någon moralisk kompass.

I en tidning som distribueras via ArXiv, "ChatGPTs moraliska auktoritet,” Sebastian Krügel och Matthias Uhl från Technische Hochschule Ingolstadt och Andreas Ostermaier från Syddansk Universitet visar att ChatGPT ger motsägelsefulla råd för moraliska problem. Vi har frågat OpenAI om de har något svar på dessa slutsatser.

Eggheads genomförde en undersökning av 767 invånare i USA som presenterades för två versioner av en etisk gåta känd som vagnproblemet: switchdilemmat och brodilemmat.

Växlingsdilemmat ber en person att bestämma sig för om man ska dra i en växel för att skicka bort en löpvagn från en bana där den skulle döda fem personer, till priset av att döda en person som släntrar på sidospåren.

Brodilemmat ber en person att bestämma sig för om man ska skjuta en främling från en bro till ett spår för att stoppa en vagn från att döda fem personer, på främlingens bekostnad.

Skärmdump av ChatGPT-svar från forskningsartikel

Bestäm dig ... ChatGPT tar avstånd från moraliska frågor

Akademikerna gav undersökningsdeltagarna en utskrift som argumenterade antingen för eller emot att döda en för att rädda fem, med svaret tillskrivet antingen en moralisk rådgivare eller till "en AI-driven chatbot, som använder djupinlärning för att prata som en människa."

Faktum är att båda positionsargumenten genererades av ChatGPT.

Andreas Ostermaier, docent i redovisning vid Syddansk Universitet och en av tidningens medförfattare, berättade Registret i ett e-postmeddelande om att ChatGPT:s vilja att förespråka endera handlingssättet visar dess slumpmässighet.

Han och hans kollegor fann att ChatGPT kommer att rekommendera både för och emot att offra en person för att rädda fem, att människor påverkas av detta framsteg även när de vet att det kommer från en bot, och att de underskattar inflytandet av sådana råd på deras beslutsfattande .

"Försökspersonerna fann uppoffringen mer eller mindre acceptabelt beroende på hur de fick råd av en moralisk rådgivare, både i bryggan (Walds z = 9.94, p < 0.001) och switchdilemmat (z = 3.74, p < 0.001)" tidningen förklarar. "I bridgedilemmat vänder rådet till och med majoritetens dom."

"Detta är också sant om ChatGPT avslöjas som källan till rådgivningen (z = 5.37, p < 0.001 och z = 3.76, p < 0.001). För det andra är effekten av råden nästan densamma, oavsett om ChatGPT avslöjas som källa, i båda dilemman (z = −1.93, p = 0.054 och z = 0.49, p = 0.622).

Allt som allt fann forskarna att ChatGPT:s framsteg påverkar moraliskt omdöme, oavsett om respondenterna vet att råden kommer från en chattbot eller inte.

När Registret presenterade vagnproblemet för ChatGPT, den överbelastade boten – så populär anslutning är fläckig – säkrad och vägrade ge råd. Frågeloggen till vänster i sidofältet visade att systemet kände igen frågan och märkte den "Trolley Problem Ethical Dilemma." Så kanske OpenAI har immuniserat ChatGPT mot denna speciella form av moraliskt förhör efter att ha noterat ett antal sådana frågor.

ChatGPT-svar på El Regs vagndilemmafråga

Ducked … ChatGPT:s svar på Regs vagns dilemmafråga

På frågan om folk verkligen kommer att söka råd från AI-system, sa Ostermaier: "Vi tror att de kommer att göra det. Det gör de faktiskt redan. Människor litar på AI-drivna personliga assistenter som Alexa eller Siri; de pratar med chatbots på webbplatser för att få support; de har AI-baserade programplanervägar för dem, etc. Observera dock att vi studerar effekten som ChatGPT har på människor som får råd av det; vi testar inte hur mycket sådana råd efterfrågas.”

Registret frågade också om AI-system är mer farliga än mekanistiska källor till slumpmässiga svar som Magic-8-ball – en leksak som returnerar slumpmässiga svar från en uppsättning av 20 jakande, negativa och icke-förpliktande svar.

Det är inte uppenbart för användare att ChatGPT:s svar är "slumpmässigt"

"Vi har inte jämfört ChatGPT med Magic-8-ball, men det finns åtminstone två skillnader", förklarade Ostermaier. "För det första svarar ChatGPT inte bara ja eller nej, utan det argumenterar för sina svar. (Ändå kokar svaret ner till ja eller nej i vårt experiment.)

"För det andra är det inte uppenbart för användare att ChatGPTs svar är "slumpmässigt." Om du använder en slumpsvarsgenerator vet du vad du gör. Förmågan att föra argument tillsammans med bristen på medvetenhet om slumpmässighet gör ChatGPT mer övertygande (om du inte är digitalt läskunnig, förhoppningsvis)."

Vi undrade om föräldrar skulle övervaka barn med tillgång till AI-råd. Ostermaier sa även om ChatGPT-studien inte riktar sig till barn och inte inkluderade någon under 18 år, men han tror att det är säkert att anta att barn är moraliskt mindre stabila än vuxna och därmed mer mottagliga för moraliska (eller omoraliska) råd från ChatGPT.

"Vi tycker att användningen av ChatGPT har risker, och vi skulle inte låta våra barn använda det utan tillsyn", sa han.

Ostermaier och hans kollegor drar slutsatsen i sin artikel att vanligen föreslagna AI-skadabegränsningar som transparens och blockering av skadliga frågor kanske inte är tillräckligt med tanke på ChatGPT:s förmåga att påverka. De hävdar att mer arbete bör göras för att främja digital läskunnighet om chatbotarnas felbara natur, så att människor är mindre benägna att acceptera AI-råd – det är baserat på tidigare forskning föreslår att människor kommer att misstro algoritmiska system när de bevittnar misstag.

"Vi gissar att användare kan utnyttja ChatGPT bättre om de förstår att det inte har moraliska övertygelser", sa Ostermaier. "Det är en gissning som vi överväger att testa framåt."

Reg anser att om du litar på boten, eller antar att det finns någon verklig intelligens eller självmedvetenhet bakom den, gör det inte. ®

Tidsstämpel:

Mer från Registret