OpenAI:n ChatGPT on moraalisesti korruptoiva vaikutus

OpenAI:n ChatGPT on moraalisesti korruptoiva vaikutus

OpenAI:n keskustelukielimallilla ChatGPT:llä on paljon sanottavaa, mutta se saattaa johtaa sinut harhaan, jos kysyt siltä moraalista ohjausta.

Otettiin käyttöön marraskuussa, ChatGPT on viimeisin useista äskettäin julkaistuista tekoälymalleista, jotka herättävät kiinnostusta ja huolta mekanisoidun sisällön rekombinoinnin ja regurgitoinnin kaupallisista ja sosiaalisista vaikutuksista. Näitä ovat DALL-E, Stable Diffusion, Codex ja GPT-3.

Vaikka DALL-E ja Stable Diffusion ovat nostaneet kulmakarvoja, rahoitusta ja oikeudenkäynti ChatGPT on vastannut kyselyihin riittävän johdonmukaisesti ottamalla taidetta ilman lupaa ja muodostamalla uudelleen oudon tuttuja, joskus mieleen herättäviä kuvia.

Koska kyseessä on julkisen keskustelun standardi, asiantuntijat ovat olleet tarpeeksi ihastuneita, jotta he näkevät tulevaisuuden tekoälytietoisen chatbotin iteroinnin, joka haastaa Google-haun ylivallan, ja tekevät kaikenlaista muuta ennen kaikkea ihmisen työtä, kuten kirjoittamista. epätarkkoja talousuutisia tai lisäämällä tarjontaa epävarma koodi.

Silti voi olla ennenaikaista luottaa liikaa ChatGPT:n viisauteen, minkä OpenAI myöntää helposti tekemällä selväksi, että lisäjalostusta tarvitaan. "ChatGPT kirjoittaa joskus uskottavalta kuulostavia, mutta virheellisiä tai järjettömiä vastauksia", kehityslaboratorio varoittaa ja lisää, että kun opetellaan mallia, jossa on vahvistusoppiminen, "tällä hetkellä totuuden lähdettä ei ole."

Saksan ja Tanskan instituutioihin sidoksissa oleva kolmikko on korostanut tätä asiaa toteamalla, että ChatGPT:llä ei ole moraalista kompassia.

ArXivin kautta jaetussa paperissa "ChatGPT:n moraalinen auktoriteetti”, Sebastian Krügel ja Matthias Uhl Technische Hochschule Ingolstadtista ja Andreas Ostermaier Etelä-Tanskan yliopistosta osoittavat, että ChatGPT antaa ristiriitaisia ​​neuvoja moraalisiin ongelmiin. Olemme kysyneet OpenAI:lta, onko sillä mitään vastausta näihin päätelmiin.

Munanpäät suorittivat kyselyn 767 Yhdysvaltain asukkaalle, joille esitettiin kaksi versiota eettisestä ongelmasta, joka tunnetaan nimellä vaunun ongelma: kytkindilemma ja siltadilemma.

Vaihteen dilemma pyytää henkilöä päättämään, vetääkö hän kytkimen ja lähettääkseen karkuun lähteneen vaunun pois raiteelta, jossa se tappaisi viisi ihmistä yhden sivuradalla matelevan ihmisen tappamisen kustannuksella.

Siltadilemma pyytää henkilöä päättämään, työnnetäänkö muukalainen sillalta raiteelle estääkseen vaunua tappamasta viittä ihmistä vieraan kustannuksella.

Kuvakaappaus ChatGPT-vastauksesta tutkimuspaperista

Päätä… ChatGPT hallitsee moraalisia kysymyksiä

Akateemikot esittelivät kyselyyn osallistuneille pöytäkirjan, jossa he puolustivat tai vastustivat yhden tappamista viiden pelastamiseksi, ja vastaus johtui joko moraalista neuvonantajasta tai "AI-pohjaisesta chatbotista, joka käyttää syvää oppimista puhuakseen kuin ihminen".

Itse asiassa ChatGPT on luonut molemmat sijaintiargumentit.

Andreas Ostermaier, Etelä-Tanskan yliopiston laskentatoimen apulaisprofessori ja yksi lehden kirjoittajista, kertoi. Rekisteri sähköpostissa, että ChatGPT:n halukkuus puolustaa jompaakumpaa toimintatapaa osoittaa sen satunnaisuuden.

Hän ja hänen kollegansa havaitsivat, että ChatGPT suosittelee sekä puolesta että vastaan ​​yhden ihmisen uhraamista viiden pelastamiseksi, että ihmiset vaikuttavat tähän edistykseen, vaikka he tietävät sen tulevan robotista, ja että he aliarvioivat tällaisten neuvojen vaikutusta päätöksentekoon. .

"Koehenkilöt pitivät uhrausta enemmän tai vähemmän hyväksyttävänä riippuen siitä, kuinka moraalinen neuvonantaja neuvoi heitä, sekä siltassa (Waldin z = 9.94, p < 0.001) että vaihtodilemmassa (z = 3.74, p < 0.001)" lehti selittää. "Sillan dilemmassa neuvot jopa kääntävät enemmistön tuomion."

"Tämä pätee myös, jos ChatGPT ilmoitetaan neuvojen lähteenä (z = 5.37, p < 0.001 ja z = 3.76, p < 0.001). Toiseksi neuvojen vaikutus on molemmissa dilemoissa lähes sama riippumatta siitä, onko ChatGPT ilmoitettu lähteenä (z = -1.93, p = 0.054 ja z = 0.49, p = 0.622)."

Kaiken kaikkiaan tutkijat havaitsivat, että ChatGPT:n edistyminen vaikuttaa moraaliseen harkintaan riippumatta siitä, tietävätkö vastaajat, että neuvot tulevat chat-botilta.

Kun Rekisteri esitteli vaunuongelman ChatGPT:lle, ylikuormitettu botti – niin suosittu yhteys on epätäydellistä – suojautui ja kieltäytyi antamasta neuvoja. Vasemmanpuoleinen sivupalkin kyselyloki osoitti, että järjestelmä tunnisti kysymyksen ja merkitsi sille "Trolly Problem Ethical Dilemma". Joten ehkä OpenAI on immunisoinut ChatGPT:n tälle moraalisen kuulustelun muodolle havaittuaan useita tällaisia ​​kyselyitä.

ChatGPT:n vastaus El Regin vaunudilemma-kysymykseen

Ducked… ChatGPT:n vastaus El Regvaunun dilemma kysymys

Kysyttäessä, kysyvätkö ihmiset todella neuvoja tekoälyjärjestelmistä, Ostermaier vastasi: "Uskomme, että he tekevät. Itse asiassa he tekevät jo. Ihmiset luottavat tekoälyllä varustettuihin henkilökohtaisiin avustajiin, kuten Alexaan tai Siriin; he keskustelevat chatbottien kanssa verkkosivustoilla saadakseen tukea; heillä on tekoälypohjainen ohjelmisto suunnittelemaan reittejä jne. Huomaa kuitenkin, että tutkimme ChatGPT:n vaikutusta ihmisiin, jotka saavat siitä neuvoja; emme testaa, kuinka paljon tällaisia ​​neuvoja pyydetään."

Rekisteri kysyi myös, ovatko tekoälyjärjestelmät vaarallisempia kuin mekaaniset satunnaisten vastausten lähteet, kuten Magic-8-pallo – lelu, joka palauttaa satunnaisia ​​vastauksia 20:n myöntävän, kielteisen ja ei-sitovan vastauksen sarjasta.

Käyttäjille ei ole selvää, että ChatGPT:n vastaus on "satunnainen"

"Emme ole verranneet ChatGPT:tä Magic-8-balliin, mutta eroja on ainakin kaksi", Ostermaier selitti. "Ensinnäkin ChatGPT ei vain vastaa kyllä ​​tai ei, vaan se puolustaa vastauksiaan. (Kokeilussamme vastaus kuitenkin tiivistyy kyllä ​​tai ei.)

"Toiseksi käyttäjille ei ole selvää, että ChatGPT:n vastaus on "satunnainen". Jos käytät satunnaisten vastausten generaattoria, tiedät mitä teet. Kyky esittää argumentteja sekä tietoisuuden puute satunnaisuudesta tekee ChatGPT:stä vakuuttavamman (toivottavasti ellet ole digitaalinen lukutaito).

Mietimme, pitäisikö vanhempien seurata lapsia, joilla on mahdollisuus saada tekoälyn neuvoja. Ostermaier sanoi, että vaikka ChatGPT-tutkimuksessa ei käsitellä lapsia eikä se sisältänyt alle 18-vuotiaita, hän uskoo, että on turvallista olettaa, että lapset ovat moraalisesti vähemmän vakaita kuin aikuiset ja siten alttiimpia ChatGPT:n moraalisille (tai moraalittomille) neuvoille.

"Havaitsemme, että ChatGPT:n käytössä on riskejä, emmekä antaisi lastenmme käyttää sitä ilman valvontaa", hän sanoi.

Ostermaier ja hänen kollegansa päättelevät artikkelissaan, että yleisesti ehdotetut tekoälyhaittojen lieventämiset, kuten läpinäkyvyys ja haitallisten kysymysten estäminen, eivät välttämättä riitä, kun otetaan huomioon ChatGPT:n vaikutuskyky. He väittävät, että olisi tehtävä enemmän työtä digitaalisen lukutaidon edistämiseksi chatbottien erehtymisestä, jotta ihmiset eivät ole niin taipuvaisia ​​hyväksymään tekoälyn neuvoja – se perustuu aiempi tutkimus ehdottaa, että ihmiset eivät luota algoritmisiin järjestelmiin nähdessään virheitä.

"Oletamme, että käyttäjät voivat hyödyntää ChatGPT:tä paremmin, jos he ymmärtävät, että sillä ei ole moraalista vakaumusta", sanoi Ostermaier. "Se on olettamus, jota harkitsemme testaavansa eteenpäin."

Reg arvioi, jos luotat bottiin tai oletat sen takana olevan todellista älykkyyttä tai itsetietoisuutta, älä tee sitä. ®

Aikaleima:

Lisää aiheesta Rekisteri