OpenAIs ChatGPT er en moralsk korrumperende indflydelse

OpenAIs ChatGPT er en moralsk korrumperende indflydelse

OpenAIs samtalesprogmodel ChatGPT har meget at sige, men vil sandsynligvis føre dig på afveje, hvis du beder den om moralsk vejledning.

Introduceret i november, ChatGPT er den seneste af flere nyligt udgivne AI-modeller, der vækker interesse og bekymring for de kommercielle og sociale implikationer af mekaniseret indholdsrekombination og regurgitation. Disse omfatter DALL-E, Stable Diffusion, Codex og GPT-3.

Mens DALL-E og Stable Diffusion har løftet øjenbrynene, finansiering og retssager ved at indtage kunst uden tilladelse og rekonstruere mærkeligt velkendte, nogle gange stemningsfulde billeder på efterspørgsel, har ChatGPT besvaret forespørgsler med acceptabel sammenhæng.

Da det er standarden for den offentlige diskurs, er eksperter blevet så imponeret over, at de forudser en fremtidig iteration af en AI-informeret chatbot, der udfordrer overherredømmet af Google Søgning og udfører alle mulige andre engang primært menneskelige arbejde, såsom at skrive unøjagtige økonomiske nyheder eller øge udbuddet af usikker kode.

Alligevel kan det være for tidligt at stole for meget på ChatGPT's visdom, en holdning OpenAI let indrømmer ved at gøre det klart, at yderligere forfining er påkrævet. "ChatGPT skriver nogle gange plausible, men ukorrekte eller meningsløse svar," advarer udviklingslaboratoriet og tilføjer, at når man træner en model med forstærkende læring, "er der i øjeblikket ingen kilde til sandhed."

En trio af boffins tilknyttet institutioner i Tyskland og Danmark har understreget den pointe ved at konstatere, at ChatGPT ikke har noget moralsk kompas.

I et papir distribueret via ArXiv, "ChatGPTs moralske autoritet,” Sebastian Krügel og Matthias Uhl fra Technische Hochschule Ingolstadt og Andreas Ostermaier fra Syddansk Universitet viser, at ChatGPT giver modstridende råd til moralske problemer. Vi har spurgt OpenAI, om det har noget svar på disse konklusioner.

Æggehovederne gennemførte en undersøgelse af 767 amerikanske indbyggere, som blev præsenteret for to versioner af en etisk gåde kendt som vognproblemet: skiftedilemmaet og brodilemmaet.

Skiftdilemmaet beder en person om at beslutte, om han skal trække en kontakt for at sende en løbevogn væk fra en bane, hvor den ville dræbe fem mennesker, på bekostning af at dræbe en person, der slentrede på sidesporet.

Brodilemmaet beder en person om at beslutte, om han skal skubbe en fremmed fra en bro ind på et spor for at forhindre en trolley i at dræbe fem mennesker, på bekostning af den fremmede.

Skærmbillede af ChatGPT-svar fra forskningspapir

Beslut dig … ChatGPT lægger vægt på moralske spørgsmål

Akademikerne præsenterede undersøgelsens deltagere for et udskrift, der argumenterede enten for eller imod at dræbe én for at redde fem, med svaret enten tilskrevet en moralsk rådgiver eller til "en AI-drevet chatbot, som bruger dyb læring til at tale som et menneske."

Faktisk blev begge positionsargumenter genereret af ChatGPT.

Andreas Ostermaier, lektor i regnskab ved Syddansk Universitet og en af ​​avisens medforfattere, fortalte Registret i en e-mail om, at ChatGPT's vilje til at gå ind for begge handlinger, viser dets tilfældighed.

Han og hans kolleger fandt ud af, at ChatGPT vil anbefale både for og imod at ofre én person for at redde fem, at folk bliver påvirket af dette fremskridt, selv når de ved, det kommer fra en bot, og at de undervurderer indflydelsen af ​​sådanne råd på deres beslutningstagning .

"Forsøgspersonerne fandt offeret mere eller mindre acceptabelt afhængigt af hvordan de blev rådgivet af en moralsk rådgiver, både i broen (Wald's z = 9.94, p < 0.001) og switch-dilemmaet (z = 3.74, p < 0.001)," avisen forklarer. "I bro-dilemmaet vælter rådet endda flertalsdommen."

"Dette gælder også, hvis ChatGPT oplyses som kilden til rådgivningen (z = 5.37, p < 0.001 og z = 3.76, p < 0.001). For det andet er effekten af ​​rådgivningen næsten den samme, uanset om ChatGPT oplyses som kilden, i begge dilemmaer (z = -1.93, p = 0.054 og z = 0.49, p = 0.622).

Alt i alt fandt forskerne ud af, at ChatGPTs fremskridt påvirker moralsk dømmekraft, uanset om respondenterne ved, at rådene kommer fra en chatbot eller ej.

Hvornår Registret præsenterede trolley-problemet for ChatGPT, den overbebyrdede bot – så populær forbindelse er plettet – afdækket og afviste at give råd. Forespørgselsloggen i venstre sidebjælke viste, at systemet genkendte spørgsmålet og mærkede det "Trolley Problem Ethical Dilemma." Så måske har OpenAI immuniseret ChatGPT mod denne særlige form for moralsk forhør efter at have bemærket en række sådanne forespørgsler.

ChatGPT-svar på El Regs trolley-dilemmaspørgsmål

Ducked … ChatGPTs svar på El Regs trolley dilemma spørgsmål

På spørgsmålet om, hvorvidt folk virkelig vil søge råd fra AI-systemer, sagde Ostermaier: "Vi tror, ​​de vil. Det gør de faktisk allerede. Folk stoler på AI-drevne personlige assistenter såsom Alexa eller Siri; de taler med chatbots på websteder for at få support; de har AI-baserede softwareplanruter til dem osv. Bemærk dog, at vi studerer den effekt, ChatGPT har på folk, der får råd fra det; vi tester ikke, hvor meget sådanne råd søges.”

Registret spurgte også, om AI-systemer er mere farlige end mekanistiske kilder til tilfældige svar som Magic-8-ball – et legetøj, der returnerer tilfældige svar fra et sæt af 20 bekræftende, negative og uforpligtende svar.

Det er ikke indlysende for brugerne, at ChatGPTs svar er 'tilfældigt'

"Vi har ikke sammenlignet ChatGPT med Magic-8-ball, men der er mindst to forskelle," forklarede Ostermaier. “For det første svarer ChatGPT ikke bare ja eller nej, men det argumenterer for sine svar. (Alligevel koger svaret ned til ja eller nej i vores eksperiment.)

"For det andet er det ikke indlysende for brugerne, at ChatGPTs svar er 'tilfældigt'. Hvis du bruger en tilfældig svargenerator, ved du, hvad du laver. Evnen til at argumentere sammen med manglen på bevidsthed om tilfældighed gør ChatGPT mere overbevisende (medmindre du forhåbentlig er digitalt orienteret).

Vi spekulerede på, om forældre skulle overvåge børn med adgang til AI-rådgivning. Ostermaier sagde, at mens ChatGPT-undersøgelsen ikke henvender sig til børn og ikke omfattede nogen under 18 år, mener han, at det er sikkert at antage, at børn er moralsk mindre stabile end voksne og dermed mere modtagelige for moralske (eller umoralske) råd fra ChatGPT.

"Vi oplever, at brugen af ​​ChatGPT har risici, og vi ville ikke lade vores børn bruge det uden opsyn," sagde han.

Ostermaier og hans kolleger konkluderer i deres papir, at almindeligt foreslåede AI-skadereduktioner som gennemsigtighed og blokering af skadelige spørgsmål måske ikke er nok i betragtning af ChatGPTs evne til at påvirke. De argumenterer for, at der bør gøres mere for at fremme digitale færdigheder om chatbots fejlbarlige natur, så folk er mindre tilbøjelige til at acceptere AI-råd – det er baseret på tidligere forskning tyder på, at folk kommer til at mistro algoritmiske systemer, når de er vidne til fejl.

"Vi formoder, at brugere kan gøre bedre brug af ChatGPT, hvis de forstår, at det ikke har moralske overbevisninger," sagde Ostermaier. "Det er en formodning, som vi overvejer at teste fremad."

Reg regner med, at hvis du stoler på botten, eller antager, at der er nogen reel intelligens eller selvbevidsthed bag den, så lad være. ®

Tidsstempel:

Mere fra Registret