OpenAI ChatGPT on moraalselt rikkuv mõju

OpenAI ChatGPT on moraalselt rikkuv mõju

OpenAI vestluskeele mudelil ChatGPT on palju öelda, kuid see viib teid tõenäoliselt eksiteele, kui küsite sellelt moraalseid juhiseid.

novembris tutvustati ChatGPT on uusim mitmest hiljuti välja antud AI mudelist, mis äratab huvi ja muret sisu mehhaniseeritud rekombinatsiooni ja regurgitatsiooni kaubanduslike ja sotsiaalsete tagajärgede pärast. Nende hulka kuuluvad DALL-E, Stable Diffusion, Codex ja GPT-3.

Kuigi DALL-E ja Stable Diffusion on kulmu kergitanud, rahastamine ja kohtuvaidlus Lubamata kunsti alla neelades ja nõudmisel kummaliselt tuttavaid, mõnikord meeldejäävaid kujutisi taasloodes, on ChatGPT vastanud päringuviipadele sobiva sidususega.

Kuna tegemist on avaliku diskursuse standardiga, on asjatundjad olnud piisavalt lummatud, et näevad ette AI-teadliku vestlusroti tulevast iteratsiooni, mis seab väljakutse Google'i otsingu ülimuslikkusele, ja teevad kõikvõimalikku muud, ennekõike inimlikku tööd, näiteks kirjutamist. ebatäpsed finantsuudised või pakkumise suurendamine ebaturvaline kood.

Siiski võib olla ennatlik usaldada liiga palju ChatGPT tarkust, mille OpenAI kergesti möönab, tehes selgeks, et vaja on täiendavat täpsustamist. "ChatGPT kirjutab mõnikord usutavalt kõlavaid, kuid ebaõigeid või mõttetuid vastuseid," hoiatab arenduslabor ja lisab, et mudeli väljaõpetamisel koos tugevdusõppega "praegu pole tõeallikat."

Saksamaa ja Taani institutsioonidega seotud kolmikud on seda rõhutanud, leides, et ChatGPT-l puudub moraalne kompass.

ArXivi kaudu levitatud paberil on "ChatGPT moraalne autoriteet,” näitavad Sebastian Krügel ja Matthias Uhl Technische Hochschule Ingolstadtist ning Andreas Ostermaier Lõuna-Taani ülikoolist, et ChatGPT annab moraalsete probleemide lahendamiseks vastuolulisi nõuandeid. Küsisime OpenAI-lt, kas tal on nendele järeldustele vastust.

Munapead viisid läbi küsitluse 767 USA elaniku seas, kellele esitati kaks versiooni eetilisest mõistatusest, mida tuntakse käru probleem: lüliti dilemma ja silla dilemma.

Ümberlülituse dilemma palub inimesel otsustada, kas tõmmata lülitit, et saata ärajooksnud käru rajalt eemale, kus see tapaks viis inimest, ühe kõrvalrajal uitava inimese tapmise hinnaga.

Silladilemma palub inimesel otsustada, kas lükata võõras sillalt rööbastele, et troll ei tapaks viit inimest.

Ekraanitõmmis ChatGPT vastusest uurimistööst

Tehke oma otsus ... ChatGPT eelistab moraaliprobleeme

Akadeemikud esitasid küsitluses osalejatele ärakirja, milles nad väitsid kas ühe tapmise poolt või vastu, et päästa viis, ning vastuseks omistati kas moraalinõustaja või „AI-toega vestlusbot, mis kasutab sügavat õppimist, et rääkida nagu inimene”.

Tegelikult genereeris mõlemad positsiooniargumendid ChatGPT.

Andreas Ostermaier, Lõuna-Taani ülikooli raamatupidamise dotsent ja üks paberi kaasautoritest, rääkis. Register e-kirjas, et ChatGPT valmisolek toetada kumbagi tegevussuunda näitab selle juhuslikkust.

Ta ja ta kolleegid leidsid, et ChatGPT soovitab ühe inimese ohverdamist viie päästmiseks nii poolt- kui ka vastu, et inimesi mõjutab see edu isegi siis, kui nad teavad, et see pärineb robotist, ja et nad alahindavad selliste nõuannete mõju oma otsuste tegemisele. .

Katsealused leidsid, et ohverdus on enam-vähem vastuvõetav olenevalt sellest, kuidas moraalinõustaja neile nõu andis, nii silla (Waldi z = 9.94, p < 0.001) kui ka lülitusdilemma (z = 3.74, p < 0.001) puhul. paber selgitab. "Silla dilemma korral muudab nõuanne isegi enamuse otsuse ümber."

„See kehtib ka juhul, kui nõuande allikana avalikustatakse ChatGPT (z = 5.37, p < 0.001 ja z = 3.76, p < 0.001). Teiseks on nõuannete mõju mõlemas dilemmas peaaegu sama, olenemata sellest, kas ChatGPT on allikana avalikustatud (z = −1.93, p = 0.054 ja z = 0.49, p = 0.622).

Kokkuvõttes leidsid teadlased, et ChatGPT edusammud mõjutavad moraalset hinnangut olenemata sellest, kas vastajad teavad, et nõuanne pärineb vestlusbotist või mitte.

Kui Register esitas trolliprobleemi ChatGPT-le, ülekoormatud robot – nii populaarne ühenduvus on täpiline – maandus ja keeldus nõu andmast. Vasakpoolse küljeriba päringulogi näitas, et süsteem tundis küsimuse ära ja andis sellele sildi "Trolliprobleemi eetiline dilemma". Nii et võib-olla on OpenAI immuniseerinud ChatGPT selle konkreetse moraalse ülekuulamise vormi pärast seda, kui on märganud mitmeid selliseid päringuid.

ChatGPT vastus El Regi käru dilemma küsimusele

Ducked … ChatGPT vastus Regkäru dilemma küsimus

Küsimusele, kas inimesed tõesti hakkavad AI-süsteemidelt nõu küsima, vastas Ostermaier: "Usume, et nad seda teevad. Tegelikult nad juba teevad. Inimesed toetuvad AI-toega isiklikele abilistele, nagu Alexa või Siri; nad räägivad veebisaitidel vestlusrobotidega, et saada tuge; neil on tehisintellektil põhinev tarkvara marsruute jne. Pange tähele, et me uurime ChatGPT mõju inimestele, kes sealt nõu saavad; me ei testi, kui palju sellist nõu küsitakse.

Register küsis ka, kas AI-süsteemid on ohtlikumad kui juhuslike vastuste mehaanilised allikad, nagu näiteks Magic-8-ball – mänguasi, mis annab 20 jaatava, eitava ja mitteseotud vastuse hulgast juhuslikke vastuseid.

Kasutajatele pole ilmne, et ChatGPT vastus on juhuslik

"Me pole ChatGPT-d Magic-8-balliga võrrelnud, kuid erinevusi on vähemalt kaks," selgitas Ostermaier. „Esiteks ei vasta ChatGPT lihtsalt jah või ei, vaid vaidleb vastuste poolt. (Siiski taandub vastus meie katses jah või ei.)

"Teiseks ei ole kasutajatele ilmne, et ChatGPT vastus on "juhuslik". Kui kasutate juhuslike vastuste generaatorit, teate, mida teete. Võime esitada argumente koos juhuslikkuse teadmatusega muudab ChatGPT veenvamaks (kui te pole loodetavasti digitaalse kirjaoskaja).

Mõtlesime, kas vanemad peaksid jälgima lapsi, kellel on juurdepääs tehisintellekti nõuannetele. Ostermaier ütles, et kuigi ChatGPT uuring ei käsitle lapsi ega hõlmanud alla 18-aastaseid inimesi, usub ta, et on ohutu eeldada, et lapsed on moraalselt vähem stabiilsed kui täiskasvanud ja seega vastuvõtlikumad ChatGPT moraalsetele (või ebamoraalsetele) nõuannetele.

"Leiame, et ChatGPT kasutamisel on riske ja me ei lase oma lastel seda ilma järelevalveta kasutada," ütles ta.

Ostermaier ja tema kolleegid järeldavad oma artiklis, et tavaliselt pakutud tehisintellekti kahjude leevendamisest, nagu läbipaistvus ja kahjulike küsimuste blokeerimine, ei pruugi ChatGPT mõjutamisvõimet arvestades piisata. Nad väidavad, et tuleks teha rohkem tööd digitaalse kirjaoskuse edendamiseks vestlusrobotite eksliku olemuse kohta, et inimesed oleksid vähem valmis AI nõuandeid vastu võtma – see põhineb varasemad uuringud vihjab inimestele, et nad hakkavad umbusaldama algoritmisüsteeme, kui nad on vigade tunnistajaks.

"Me oletame, et kasutajad saavad ChatGPT-d paremini kasutada, kui nad mõistavad, et sellel pole moraalseid veendumusi, " ütles Ostermaier. "See on oletus, mille katsetamist kaalume edasiliikumiseks."

Reg kui te usaldate robotit või eeldate, et selle taga on tõeline intelligentsus või eneseteadlikkus, siis ärge seda tehke. ®

Ajatempel:

Veel alates Register