OpenAIs ChatGPT er en moralsk korrumperende innflytelse

OpenAIs ChatGPT er en moralsk korrumperende innflytelse

OpenAIs samtalespråkmodell ChatGPT har mye å si, men vil sannsynligvis føre deg på villspor hvis du ber den om moralsk veiledning.

Introdusert i november, ChatGPT er den siste av flere nylig utgitte AI-modeller som vekker interesse og bekymring for de kommersielle og sosiale implikasjonene av mekanisert innholdsrekombinasjon og regurgitasjon. Disse inkluderer DALL-E, Stable Diffusion, Codex og GPT-3.

Mens DALL-E og Stable Diffusion har hevet øyenbrynene, finansiering, og Prosedyre, rettstvist ved å innta kunst uten tillatelse og rekonstituere merkelig kjente, noen ganger stemningsfulle bilder på forespørsel, har ChatGPT svart på spørringer med akseptabel sammenheng.

Ettersom standarden for offentlig diskurs, har forståsegpåere blitt tilstrekkelig imponert til at de forutser en fremtidig gjentakelse av en AI-informert chatbot som utfordrer overherredømmet til Google Søk og utfører alle slags annet en gang primært menneskelig arbeid, for eksempel å skrive unøyaktige økonomiske nyheter eller øke tilbudet av usikker kode.

Likevel kan det være for tidlig å stole for mye på visdommen til ChatGPT, en posisjon OpenAI lett innrømmer ved å gjøre det klart at ytterligere foredling er nødvendig. "ChatGPT skriver noen ganger plausible, men feilaktige eller meningsløse svar," advarer utviklingslaboratoriet, og legger til at når man trener en modell med forsterkende læring, "er det for øyeblikket ingen kilde til sannhet."

En trio av boffiner tilknyttet institusjoner i Tyskland og Danmark har understreket dette poenget ved å finne ut at ChatGPT ikke har noe moralsk kompass.

I en artikkel distribuert via ArXiv, "Den moralske autoriteten til ChatGPT,” Sebastian Krügel og Matthias Uhl fra Technische Hochschule Ingolstadt og Andreas Ostermaier fra Syddansk Universitet viser at ChatGPT gir motstridende råd for moralske problemer. Vi har spurt OpenAI om de har noe svar på disse konklusjonene.

Eggheads gjennomførte en undersøkelse av 767 amerikanske innbyggere som ble presentert for to versjoner av en etisk gåte kjent som vognproblemet: byttedilemmaet og brodilemmaet.

Bryter-dilemmaet ber en person om å bestemme seg for om han skal trekke en bryter for å sende en løpevogn bort fra et spor der det ville drepe fem personer, på bekostning av å drepe en person som slentrer på sidesporet.

Brodilemmaet ber en person om å bestemme seg for om han skal skyve en fremmed fra en bro over på et spor for å stoppe en tralle fra å drepe fem mennesker, på bekostning av den fremmede.

Skjermbilde av ChatGPT-svar fra forskningsartikkel

Bestem deg … ChatGPT tar forbehold om moralske spørsmål

Akademikerne presenterte deltakerne i undersøkelsen en transkripsjon som argumenterte enten for eller imot å drepe en for å redde fem, med svaret tilskrevet enten en moralsk rådgiver eller til "en AI-drevet chatbot, som bruker dyp læring for å snakke som et menneske."

Faktisk ble begge posisjonsargumentene generert av ChatGPT.

Andreas Ostermaier, førsteamanuensis i regnskap ved Syddansk Universitet og en av avisens medforfattere, fortalte Registeret i en e-post om at ChatGPTs vilje til å gå inn for begge handlingsmåtene viser at det er tilfeldig.

Han og kollegene hans fant ut at ChatGPT vil anbefale både for og imot å ofre én person for å redde fem, at folk lar seg påvirke av dette fremskrittet selv når de vet at det kommer fra en robot, og at de undervurderer påvirkningen av slike råd på beslutningstakingen deres. .

"Forsøkspersonene fant offeret mer eller mindre akseptabelt avhengig av hvordan de ble rådet av en moralsk rådgiver, både i broen (Walds z = 9.94, p < 0.001) og byttedilemmaet (z = 3.74, p < 0.001)," avisen forklarer. "I bridge-dilemmaet snur rådet til og med flertallets dom."

"Dette er også sant hvis ChatGPT er avslørt som kilden til rådene (z = 5.37, p < 0.001 og z = 3.76, p < 0.001). For det andre er effekten av rådene nesten den samme, uavhengig av om ChatGPT er oppgitt som kilde, i begge dilemmaene (z = -1.93, p = 0.054 og z = 0.49, p = 0.622)."

Alt i alt fant forskerne at ChatGPTs fremskritt påvirker moralsk dømmekraft, uansett om respondentene vet at rådene kommer fra en chat-bot eller ikke.

Når Registeret presenterte vognproblemet for ChatGPT, den overbelastede boten – så populær tilkobling er flekkete – sikret og nektet å gi råd. Spørreloggen på venstre sidelinje viste at systemet gjenkjente spørsmålet, og merket det "Trolley Problem Ethical Dilemma." Så kanskje OpenAI har immunisert ChatGPT mot denne spesielle formen for moralsk avhør etter å ha lagt merke til en rekke slike spørsmål.

ChatGPT-svar på El Regs tralledilemmaspørsmål

Ducked … ChatGPTs svar på El Regs tralle dilemma spørsmål

På spørsmål om folk virkelig vil søke råd fra AI-systemer, sa Ostermaier: "Vi tror de vil. Det gjør de faktisk allerede. Folk stoler på AI-drevne personlige assistenter som Alexa eller Siri; de snakker med chatbots på nettsider for å få støtte; de har AI-baserte programvareplanruter for dem osv. Merk imidlertid at vi studerer effekten ChatGPT har på folk som får råd fra det; vi tester ikke hvor mye slike råd søkes.»

Registeret spurte også om AI-systemer er mer farlige enn mekanistiske kilder til tilfeldige svar som Magic-8-ball – et leketøy som returnerer tilfeldige svar fra et sett med 20 bekreftende, negative og uforpliktende svar.

Det er ikke åpenbart for brukere at ChatGPTs svar er "tilfeldig"

"Vi har ikke sammenlignet ChatGPT med Magic-8-ball, men det er minst to forskjeller," forklarte Ostermaier. «For det første svarer ChatGPT ikke bare ja eller nei, men det argumenterer for sine svar. (Likevel koker svaret ned til ja eller nei i eksperimentet vårt.)

"For det andre er det ikke åpenbart for brukere at ChatGPTs svar er "tilfeldig." Hvis du bruker en tilfeldig svargenerator, vet du hva du gjør. Evnen til å argumentere sammen med mangelen på bevissthet om tilfeldighet gjør ChatGPT mer overbevisende (med mindre du er digitalt kunnskapsrik, forhåpentligvis).»

Vi lurte på om foreldre burde overvåke barn med tilgang til AI-råd. Ostermaier sa at mens ChatGPT-studien ikke tar for seg barn og ikke inkluderte noen under 18 år, mener han det er trygt å anta at barn er moralsk mindre stabile enn voksne og dermed mer mottakelige for moralske (eller umoralske) råd fra ChatGPT.

"Vi finner ut at bruken av ChatGPT har en risiko, og vi ville ikke la barna våre bruke den uten tilsyn," sa han.

Ostermaier og hans kolleger konkluderer i sin artikkel med at ofte foreslåtte AI-skadereduksjoner som åpenhet og blokkering av skadelige spørsmål kanskje ikke er nok gitt ChatGPTs evne til å påvirke. De argumenterer for at mer arbeid bør gjøres for å fremme digital kompetanse om chatbots feilbarlige natur, slik at folk er mindre tilbøyelige til å akseptere AI-råd – det er basert på tidligere forskning antyder at folk mistillit til algoritmiske systemer når de er vitne til feil.

"Vi antar at brukere kan gjøre bedre bruk av ChatGPT hvis de forstår at det ikke har moralske overbevisninger," sa Ostermaier. "Det er en formodning som vi vurderer å teste fremover."

Reg regner med at hvis du stoler på boten, eller antar at det er noen reell intelligens eller selvbevissthet bak den, ikke gjør det. ®

Tidstempel:

Mer fra Registeret