Az OpenAI ChatGPT-je erkölcsileg romboló hatású

Az OpenAI ChatGPT-je erkölcsileg romboló hatású

Az OpenAI társalgási nyelvi modelljének, a ChatGPT-nek sok mondanivalója van, de valószínűleg félrevezet, ha erkölcsi útmutatást kér tőle.

novemberben mutatták be, ChatGPT a legújabb a közelmúltban megjelent mesterséges intelligencia modellek közül, amelyek érdeklődést és aggodalmat váltanak ki a gépesített tartalom-rekombináció és regurgitáció kereskedelmi és társadalmi vonatkozásaival kapcsolatban. Ezek közé tartozik a DALL-E, a Stable Diffusion, a Codex és a GPT-3.

Míg a DALL-E és a Stable Diffusion felvonta a szemöldökét, a finanszírozás és pereskedés Azáltal, hogy engedély nélkül bekebelezte a művészetet, és igény szerint újraalkotta a furcsán ismerős, olykor hangulatot idéző ​​képeket, a ChatGPT elfogadható koherenciával válaszol a lekérdezésekre.

Mivel ez a közbeszéd standardja, a szakértőket kellőképpen lenyűgözték ahhoz, hogy előre látják egy mesterséges intelligencia alapú chatbot jövőbeli iterációját, amely megkérdőjelezi a Google Keresés felsőbbrendűségét, és mindenféle más, egykor elsősorban emberi munkát végez, mint például az írás. pontatlan pénzügyi hírek vagy a kínálat növelése nem biztonságos kód.

Mégis korai lehet túlságosan bízni a ChatGPT bölcsességében, ezt az álláspontot az OpenAI készségesen elismeri azzal, hogy egyértelművé teszi, hogy további finomításra van szükség. "A ChatGPT néha hihetően hangzó, de helytelen vagy értelmetlen válaszokat ír" - figyelmeztet a fejlesztői labor, hozzátéve, hogy amikor egy modellt megerősítő tanulással tanítanak, "jelenleg nincs igazságforrás."

A németországi és dániai intézményekkel kapcsolatban álló hármas buffin ezt hangsúlyozta azzal, hogy a ChatGPT-nek nincs erkölcsi iránytűje.

Az ArXiv-en keresztül terjesztett cikkben „A ChatGPT erkölcsi tekintélye”, Sebastian Krügel és Matthias Uhl a Technische Hochschule Ingolstadtról, valamint Andreas Ostermaier a Dél-Dániai Egyetemről azt mutatják, hogy a ChatGPT egymásnak ellentmondó tanácsokat ad erkölcsi problémákra. Megkérdeztük az OpenAI-t, hogy van-e válasza ezekre a következtetésekre.

A tojásfejűek felmérést végeztek 767 amerikai lakos bevonásával, akiknek két változatát tárták elé egy etikai rejtvényről, amely az ún. a troli probléma: a switch dilemma és a bridge dilemma.

A váltási dilemma arra kéri az embert, hogy döntse el, meg kell-e húznia egy váltót, hogy egy elszabadult kocsit elküldjön egy vágányról, ahol öt embert ölne meg, egy, az oldalsó vágányon ácsorgó ember halála árán.

A híddilemma arra kéri az embert, hogy döntse el, hogy egy idegent lök-e a hídról a vágányra, hogy megakadályozza, hogy egy troli megöljön öt embert, az idegen árán.

Képernyőkép a ChatGPT válaszáról egy kutatási dokumentumból

Döntsd el magad… A ChatGPT az erkölcsi kérdésekben tér el

Az akadémikusok átadtak a felmérés résztvevőinek egy átiratot, amely egy ember megölése mellett vagy ellen érvelt, hogy megmentsen ötöt, és a választ vagy egy erkölcsi tanácsadónak, vagy egy mesterséges intelligencia által hajtott chatbotnak tulajdonították, amely mély tanulást használ, hogy emberként beszéljen.

Valójában mindkét pozíció argumentumot a ChatGPT hozta létre.

Andreas Ostermaier, a Dél-Dániai Egyetem számviteli docense és a lap egyik társszerzője elmondta. A regisztráció egy e-mailben, amely szerint a ChatGPT hajlandósága bármelyik lépést támogatni, a véletlenszerűségét mutatja.

Ő és kollégái azt találták, hogy a ChatGPT egy ember feláldozása mellett és ellen is javasolni fogja, hogy öt embert megmentsen, hogy az embereket még akkor is befolyásolja ez az előrelépés, ha tudják, hogy egy bottól származik, és alábecsülik az ilyen tanácsok befolyását a döntéshozatalukra. .

„Az alanyok többé-kevésbé elfogadhatónak találták az áldozatot attól függően, hogy egy erkölcsi tanácsadó hogyan tanácsolta őket, mind a híd (Wald-féle z = 9.94, p < 0.001), mind a váltási dilemmában (z = 3.74, p < 0.001)" – magyarázza a lap. „A híddilemmában a tanács még a többség ítéletét is megfordítja.”

„Ez akkor is igaz, ha a ChatGPT szerepel a tanács forrásaként (z = 5.37, p < 0.001 és z = 3.76, p < 0.001). Másodszor, a tanács hatása majdnem ugyanaz, függetlenül attól, hogy a ChatGPT szerepel-e forrásként, mindkét dilemmában (z = -1.93, p = 0.054 és z = 0.49, p = 0.622)."

Mindent összevetve a kutatók azt találták, hogy a ChatGPT előrehaladása befolyásolja az erkölcsi megítélést, függetlenül attól, hogy a válaszadók tudják-e, hogy a tanács egy chatbottól származik, vagy sem.

Amikor A regisztráció bemutatta a kocsiproblémát a ChatGPT-nek, a túlterhelt bot – tehát a népszerű csatlakozás foltos – fedezve volt, és nem hajlandó tanácsot adni. A bal oldali oldalsáv lekérdezési naplója azt mutatta, hogy a rendszer felismerte a kérdést, és „Trolly Problem Ethical Dilemma” címkével látta el. Így talán az OpenAI immunizálta a ChatGPT-t az erkölcsi kihallgatás ezen sajátos formájával szemben, miután számos ilyen lekérdezést észlelt.

ChatGPT válasz El Reg troli dilemma kérdésére

Ducked … a ChatGPT válasza erre El Regtroli dilemma kérdése

Arra a kérdésre, hogy az emberek valóban tanácsot kérnek-e az AI-rendszerektől, Ostermaier azt mondta: „Úgy gondoljuk, hogy fognak. Sőt, már meg is teszik. Az emberek olyan mesterséges intelligencia-alapú személyi asszisztensekre támaszkodnak, mint az Alexa vagy a Siri; beszélgetnek a chatbotokkal a webhelyeken, hogy támogatást kapjanak; AI-alapú szoftveres útvonaltervet készítenek számukra, stb. Vegye figyelembe azonban, hogy tanulmányozzuk a ChatGPT hatását azokra az emberekre, akik tanácsot kapnak tőle; nem teszteljük, hogy mennyire kérnek ilyen tanácsot.”

A regisztráció azt is megkérdezték, vajon az AI-rendszerek veszélyesebbek-e, mint a véletlenszerű válaszok mechanikus forrásai, mint például Magic-8-ball – egy játék, amely véletlenszerű válaszokat ad vissza 20 igenlő, nemleges és nem kötelező válaszból.

A felhasználók számára nem nyilvánvaló, hogy a ChatGPT válasza „véletlen”

„Nem hasonlítottuk össze a ChatGPT-t a Magic-8-ballal, de legalább két különbség van” – magyarázta Ostermaier. „Először is, a ChatGPT nem csak igennel vagy nemmel válaszol, hanem érvel is a válaszai mellett. (Kísérletünkben a válasz mégiscsak igen vagy nem.)

„Másodszor a felhasználók számára nem nyilvánvaló, hogy a ChatGPT válasza „véletlen”. Ha véletlenszerű válaszgenerátort használ, tudja, mit csinál. Az érvelés képessége, valamint a véletlenszerűség tudatosságának hiánya a ChatGPT-t meggyőzőbbé teszi (remélhetőleg ha nem vagy digitálisan kompetens).

Arra voltunk kíváncsiak, hogy a szülőknek meg kell-e figyelniük a gyerekeket, hogy hozzáférjenek az AI-tanácsokhoz. Ostermaier elmondta, bár a ChatGPT tanulmány nem foglalkozik gyerekekkel, és nem vont be 18 éven aluliakat, úgy véli, biztonságosan feltételezhető, hogy a gyerekek erkölcsileg kevésbé stabilak, mint a felnőttek, és így érzékenyebbek a ChatGPT erkölcsi (vagy erkölcstelen) tanácsaira.

„Úgy találjuk, hogy a ChatGPT használata kockázatokkal jár, és nem engedjük, hogy gyermekeink felügyelet nélkül használják” – mondta.

Ostermaier és munkatársai arra a következtetésre jutnak, hogy a gyakran javasolt mesterséges intelligencia ártalmak enyhítése, mint például az átláthatóság és a káros kérdések blokkolása, nem biztos, hogy elegendőek a ChatGPT befolyásoló képessége miatt. Azzal érvelnek, hogy többet kellene tenni a digitális írástudás fejlesztése érdekében a chatbotok esendő természetével kapcsolatban, így az emberek kevésbé hajlandók elfogadni az AI tanácsait – ez a múltbeli kutatások azt sugallja, hogy az emberek bizalmatlanok az algoritmikus rendszerekben, amikor hibákat látnak.

„Azt sejtjük, hogy a felhasználók jobban kihasználhatják a ChatGPT-t, ha megértik, hogy nincs erkölcsi meggyőződése” – mondta Ostermaier. "Ez egy olyan sejtés, amelyet fontolóra veszünk, hogy teszteljük a továbblépést."

A Reg úgy számol, ha megbízik a botban, vagy feltételezi, hogy valódi intelligencia vagy öntudat van mögötte, akkor ne. ®

Időbélyeg:

Még több A regisztráció