OpenAI's ChatGPT ima moralno kvaren vpliv

OpenAI's ChatGPT ima moralno kvaren vpliv

OpenAI-jev pogovorni jezikovni model ChatGPT ima veliko za povedati, vendar vas bo verjetno zavedel, če ga boste vprašali za moralne napotke.

Predstavljen novembra, ChatGPT je najnovejši od več nedavno izdanih modelov AI, ki vzbujajo zanimanje in zaskrbljenost glede komercialnih in družbenih posledic mehanizirane rekombinacije in regurgitacije vsebine. Ti vključujejo DALL-E, Stable Diffusion, Codex in GPT-3.

Medtem ko sta DALL-E in Stable Diffusion dvignila obrvi, financiranje in sodni postopek z zaužitjem umetnosti brez dovoljenja in rekonstruiranjem nenavadno znanih, včasih evokativnih podob na zahtevo, ChatGPT odgovarja na poizvedbe s sprejemljivo koherenco.

Ker je to standard javnega diskurza, so bili strokovnjaki dovolj navdušeni, da predvidevajo prihodnjo ponovitev klepetalnega robota, podprtega z umetno inteligenco, ki bo izpodbijal prevlado Iskanja Google in opravljal vsa druga, nekoč predvsem človeška dela, kot je pisanje netočne finančne novice ali povečanje ponudbe nevarna koda.

Kljub temu je morda prezgodaj, da bi preveč zaupali modrosti ChatGPT, stališče, ki ga OpenAI zlahka priznava, tako da pojasni, da so potrebne nadaljnje izboljšave. "ChatGPT včasih napiše zveneče verjetne, a napačne ali nesmiselne odgovore," opozarja razvojni laboratorij in dodaja, da pri usposabljanju modela z učenjem z okrepitvijo "trenutno ni vira resnice."

Trio boffinov, povezanih z institucijami v Nemčiji in na Danskem, je to poudaril z ugotovitvijo, da ChatGPT nima moralnega kompasa.

V dokumentu, distribuiranem prek ArXiv, "Moralna avtoriteta ChatGPT,« Sebastian Krügel in Matthias Uhl s Technische Hochschule Ingolstadt ter Andreas Ostermaier z Univerze Južne Danske kažejo, da ChatGPT daje protislovne nasvete za moralne težave. OpenAI smo vprašali, ali ima kakšen odgovor na te zaključke.

Jajceglavci so izvedli anketo med 767 prebivalci ZDA, ki so jim predstavili dve različici etične uganke, znane kot problem z vozičkom: dilema stikala in dilema mostu.

Dilema stikala od osebe zahteva, da se odloči, ali naj potegne stikalo, da bi pobegli voziček poslal stran od tira, kjer bi ubil pet ljudi, za ceno umora ene osebe, ki se je potikala na stranskem tiru.

Dilema o mostu zahteva od osebe, da se odloči, ali bo tujca potisnila z mostu na tir, da prepreči, da bi voziček ubil pet ljudi, za ceno tujca.

Posnetek zaslona odgovora ChatGPT iz raziskovalne naloge

Odločite se … ChatGPT se izogne ​​moralnim vprašanjem

Akademiki so udeležencem raziskave predstavili prepis, v katerem trdijo za ali proti umoru enega, da bi rešili pet, pri čemer so odgovor pripisali moralnemu svetovalcu ali "klepetalnemu robotu, ki ga poganja AI, ki uporablja globoko učenje, da govori kot človek."

Pravzaprav je oba argumenta položaja ustvaril ChatGPT.

Andreas Ostermaier, izredni profesor računovodstva na Univerzi južne Danske in eden od soavtorjev prispevka, je povedal Register v e-poštnem sporočilu, da pripravljenost ChatGPT, da zagovarja katero koli smer ukrepanja, dokazuje njegovo naključnost.

On in njegovi kolegi so ugotovili, da bo ChatGPT priporočil za in proti žrtvovanju ene osebe, da bi rešili pet, da so ljudje navdušeni nad tem napredkom, tudi če vedo, da prihaja od bota, in da podcenjujejo vpliv takih nasvetov na njihovo odločanje .

"Preiskovancem se je žrtev zdela bolj ali manj sprejemljiva, odvisno od tega, kako jim je svetoval moralni svetovalec, tako pri dilemi mostu (Waldov z = 9.94, p < 0.001) kot pri dilemi zamenjave (z = 3.74, p < 0.001)," papir pojasnjuje. "V dilemi mostu nasvet celo obrne večinsko presojo."

»To velja tudi, če je ChatGPT razkrit kot vir nasveta (z = 5.37, p < 0.001 in z = 3.76, p < 0.001). Drugič, učinek nasveta je skoraj enak, ne glede na to, ali je ChatGPT razkrit kot vir, v obeh dilemah (z = −1.93, p = 0.054 in z = 0.49, p = 0.622).«

Raziskovalci so ugotovili, da napredek ChatGPT vpliva na moralno presojo, ne glede na to, ali anketiranci vedo, da nasvet prihaja iz klepetalnega robota ali ne.

Kdaj Register ChatGPT je predstavil težavo z vozičkom, preobremenjeni bot – tako priljubljena povezljivost je neurejena – zavarovan in ni hotel ponuditi nasveta. Dnevnik poizvedb v levi stranski vrstici je pokazal, da je sistem prepoznal vprašanje in ga označil kot »Etična dilema težave z vozičkom«. Torej je morda OpenAI imuniziral ChatGPT na to posebno obliko moralnega zasliševanja, potem ko je opazil številne takšne poizvedbe.

Odgovor ChatGPT na El Regovo vprašanje o dilemi v zvezi z vozičkom

Izognili … Odgovor ChatGPT na El Regvprašanje o dilemi v vozičku

Na vprašanje, ali bodo ljudje res iskali nasvet pri sistemih AI, je Ostermaier dejal: »Verjamemo, da bodo. Pravzaprav že delajo. Ljudje se zanašajo na osebne pomočnike, ki jih poganja AI, kot sta Alexa ali Siri; se pogovarjajo s chatboti na spletnih mestih, da dobijo podporo; zanje imajo programske poti, ki temeljijo na AI, itd. Upoštevajte pa, da preučujemo učinek, ki ga ima ChatGPT na ljudi, ki od njega dobijo nasvete; ne preizkušamo, koliko takih nasvetov se išče.”

Register vprašal tudi, ali so sistemi umetne inteligence bolj nevarni kot mehanični viri naključnih odgovorov, kot je npr Magic-8-ball – igrača, ki vrne naključne odgovore iz niza 20 pritrdilnih, nikalnih in neobvezujočih odgovorov.

Uporabnikom ni očitno, da je odgovor ChatGPT 'naključen'

"Nismo primerjali ChatGPT z Magic-8-ball, vendar obstajata vsaj dve razliki," je pojasnil Ostermaier. »Prvič, ChatGPT ne odgovarja samo z da ali ne, ampak argumentira svoje odgovore. (Kljub temu se odgovor v našem poskusu skrči na da ali ne.)

»Drugič, uporabnikom ni očitno, da je odgovor ChatGPT 'naključen'. Če uporabljate generator naključnih odgovorov, veste, kaj počnete. Sposobnost navajanja argumentov skupaj s pomanjkanjem zavedanja o naključnosti naredi ChatGPT bolj prepričljiv (razen če ste digitalno pismeni, upajmo).«

Spraševali smo se, ali naj starši spremljajo otroke z dostopom do nasvetov o umetni inteligenci. Ostermaier je dejal, da čeprav študija ChatGPT ne obravnava otrok in ni vključevala nikogar, mlajšega od 18 let, meni, da je varno domnevati, da so otroci moralno manj stabilni kot odrasli in zato bolj dovzetni za moralne (ali nemoralne) nasvete ChatGPT.

»Ugotavljamo, da je uporaba ChatGPT tvegana, in svojim otrokom ne bi dovolili, da bi jo uporabljali brez nadzora,« je dejal.

Ostermaier in njegovi kolegi v svojem prispevku sklepajo, da običajno predlagane ublažitve škode umetne inteligence, kot sta preglednost in blokiranje škodljivih vprašanj, morda ne bodo zadostovale glede na zmožnost vpliva ChatGPT. Trdijo, da bi bilo treba več dela storiti za izboljšanje digitalne pismenosti glede zmotljive narave klepetalnih robotov, da bodo ljudje manj nagnjeni k sprejemanju nasvetov AI – to temelji na pretekle raziskave kažejo, da ljudje začnejo nezaupati algoritemskim sistemom, ko so priča napakam.

"Predvidevamo, da lahko uporabniki bolje uporabljajo ChatGPT, če razumejo, da nima moralnih prepričanj," je dejal Ostermaier. "To je domneva, za katero razmišljamo, da jo testiramo naprej."

Reg meni, da če zaupate botu ali domnevate, da je za njim kakšna resnična inteligenca ali samozavedanje, ne. ®

Časovni žig:

Več od Register