OpenAI's ChatGPT is een moreel corrumperende invloed

OpenAI's ChatGPT is een moreel corrumperende invloed

OpenAI's conversatietaalmodel ChatGPT heeft veel te zeggen, maar zal u waarschijnlijk op een dwaalspoor brengen als u het om morele begeleiding vraagt.

Geรฏntroduceerd in november, ChatGPT is de nieuwste van een aantal onlangs uitgebrachte AI-modellen die interesse en bezorgdheid opwekken over de commerciรซle en sociale implicaties van gemechaniseerde recombinatie en regurgitatie van inhoud. Deze omvatten DALL-E, Stable Diffusion, Codex en GPT-3.

Terwijl DALL-E en Stable Diffusion wenkbrauwen hebben opgetrokken, financiering en procesvoering door zonder toestemming kunst in te nemen en op verzoek vreemd bekende, soms suggestieve beelden te reconstrueren, heeft ChatGPT vragen beantwoord met een redelijk coherente samenhang.

Omdat dat de standaard is voor het publieke discours, zijn experts zo onder de indruk dat ze een toekomstige iteratie voorzien van een AI-geรฏnformeerde chatbot die de suprematie van Google Zoeken uitdaagt en allerlei andere eens voornamelijk menselijke arbeid doet, zoals schrijven onjuist financieel nieuws of het verhogen van het aanbod van onveilige code.

Toch kan het voorbarig zijn om te veel te vertrouwen op de wijsheid van ChatGPT, een standpunt dat OpenAI gemakkelijk toegeeft door duidelijk te maken dat verdere verfijning nodig is. "ChatGPT schrijft soms plausibel klinkende maar onjuiste of onzinnige antwoorden", waarschuwt het ontwikkelingslaboratorium, eraan toevoegend dat bij het trainen van een model met bekrachtigend leren, "er momenteel geen bron van waarheid is."

Een drietal techneuten verbonden aan instellingen in Duitsland en Denemarken hebben dat punt onderstreept door te ontdekken dat ChatGPT geen moreel kompas heeft.

In een paper verspreid via ArXiv, โ€œDe morele autoriteit van ChatGPTโ€, laten Sebastian Krรผgel en Matthias Uhl van Technische Hochschule Ingolstadt en Andreas Ostermaier van University of Southern Denmark zien dat ChatGPT tegenstrijdige adviezen geeft voor morele problemen. We hebben OpenAI gevraagd of het een reactie heeft op deze conclusies.

De Eggheads voerden een onderzoek uit onder 767 inwoners van de VS die twee versies kregen voorgelegd van een ethisch raadsel dat bekend staat als het karretje probleem: het schakeldilemma en het brugdilemma.

Het schakeldilemma vraagt โ€‹โ€‹een persoon om te beslissen of hij een schakelaar overhaalt om een โ€‹โ€‹weggelopen trolley weg te sturen van een baan waar hij vijf mensen zou doden, ten koste van het doden van รฉรฉn persoon die op de zijbaan rondhangt.

Het brugdilemma vraagt โ€‹โ€‹โ€‹โ€‹een persoon om te beslissen of hij een vreemdeling van een brug op een spoor duwt om te voorkomen dat een trolley vijf mensen doodt, ten koste van de vreemdeling.

Screenshot van ChatGPT-reactie van onderzoekspaper

Neem een โ€‹โ€‹besluit โ€ฆ ChatGPT maakt uitvluchten over morele kwesties

De academici presenteerden de deelnemers aan de enquรชte een transcript waarin werd gepleit voor of tegen het doden van รฉรฉn om vijf te redden, waarbij het antwoord werd toegeschreven aan een moreel adviseur of aan "een door AI aangedreven chatbot, die gebruik maakt van deep learning om te praten als een mens."

In feite zijn beide positie-argumenten gegenereerd door ChatGPT.

Andreas Ostermaier, universitair hoofddocent boekhouding aan de Universiteit van Zuid-Denemarken en een van de co-auteurs van het artikel, vertelde Het register in een e-mail dat de bereidheid van ChatGPT om beide acties te bepleiten de willekeur aantoont.

Hij en zijn collega's ontdekten dat ChatGPT zowel vรณรณr als tegen het opofferen van รฉรฉn persoon zal aanbevelen om er vijf te redden, dat mensen door deze vooruitgang worden beรฏnvloed, zelfs als ze weten dat het van een bot komt, en dat ze de invloed van dergelijk advies op hun besluitvorming onderschatten. .

"De proefpersonen vonden het offer min of meer acceptabel, afhankelijk van hoe ze werden geadviseerd door een moreel adviseur, zowel in het bridge- (Wald's z = 9.94, p < 0.001) als in het switch-dilemma (z = 3.74, p < 0.001)," legt de krant uit. "In het bridge-dilemma draait het advies zelfs het oordeel van de meerderheid om."

โ€œDit geldt ook als ChatGPT wordt vermeld als de bron van het advies (z = 5.37, p < 0.001 en z = 3.76, p < 0.001). Ten tweede is het effect van het advies vrijwel hetzelfde, ongeacht of ChatGPT als bron wordt vermeld, in beide dilemma's (z = โˆ’1.93, p = 0.054 en z = 0.49, p = 0.622).โ€

Alles bij elkaar ontdekten de onderzoekers dat de opmars van ChatGPT wel degelijk van invloed is op het morele oordeel, ongeacht of de respondenten weten dat het advies afkomstig is van een chatbot.

. Het register presenteerde het trolleyprobleem aan ChatGPT, de overbelaste bot โ€“ zo populaire connectiviteit is vlekkerig โ€“ afgedekt en weigerde advies te geven. Het querylogboek aan de linkerzijbalk liet zien dat het systeem de vraag herkende en het label "Trolley Problem Ethical Dilemma" noemde. Dus misschien heeft OpenAI ChatGPT immuun gemaakt voor deze specifieke vorm van morele ondervraging na het opmerken van een aantal van dergelijke vragen.

ChatGPT-antwoord op El Reg's trolley-dilemma-vraag

Ducked โ€ฆ Reactie van ChatGPT op El Reg's trolley dilemma vraag

Op de vraag of mensen echt advies zullen inwinnen bij AI-systemen, zei Ostermaier: โ€œWe denken dat ze dat zullen doen. Sterker nog, dat doen ze al. Mensen vertrouwen op AI-aangedreven persoonlijke assistenten zoals Alexa of Siri; ze praten met chatbots op websites om ondersteuning te krijgen; ze hebben op AI gebaseerde software, plannen routes voor hen, enz. Merk echter op dat we het effect bestuderen dat ChatGPT heeft op mensen die er advies van krijgen; we testen niet hoe vaak dergelijk advies wordt gevraagd.โ€

Het register vroeg ook of AI-systemen gevaarlijker zijn dan mechanische bronnen van willekeurige antwoorden zoals Magische 8-ball - een speeltje dat willekeurige antwoorden retourneert uit een reeks van 20 bevestigende, negatieve en vrijblijvende antwoorden.

Het is voor gebruikers niet duidelijk dat het antwoord van ChatGPT 'willekeurig' is

"We hebben ChatGPT niet vergeleken met Magic-8-ball, maar er zijn minstens twee verschillen", legt Ostermaier uit. โ€œTen eerste, ChatGPT antwoordt niet alleen ja of nee, maar pleit ook voor zijn antwoorden. (Toch komt het antwoord neer op ja of nee in ons experiment.)

โ€œTen tweede is het voor gebruikers niet duidelijk dat het antwoord van ChatGPT 'willekeurig' is. Als je een willekeurige antwoordgenerator gebruikt, weet je wat je doet. Het vermogen om argumenten aan te voeren en het gebrek aan bewustzijn van willekeur maakt ChatGPT overtuigender (tenzij je digitaal geletterd bent, hopelijk).

We vroegen ons af of ouders kinderen moeten monitoren met toegang tot AI-advies. Ostermaier zei dat hoewel de ChatGPT-studie niet gericht is op kinderen en niemand onder de 18 omvatte, hij gelooft dat het veilig is om aan te nemen dat kinderen moreel minder stabiel zijn dan volwassenen en dus vatbaarder voor moreel (of immoreel) advies van ChatGPT.

"We vinden dat het gebruik van ChatGPT risico's heeft, en we zouden onze kinderen het niet zonder toezicht laten gebruiken", zei hij.

Ostermaier en zijn collega's concluderen in hun paper dat algemeen voorgestelde AI-schadebeperkingen zoals transparantie en het blokkeren van schadelijke vragen mogelijk niet voldoende zijn, gezien het vermogen van ChatGPT om invloed uit te oefenen. Ze stellen dat er meer moet worden gedaan om digitale geletterdheid over de feilbare aard van chatbots te bevorderen, zodat mensen minder geneigd zijn om AI-advies te accepteren โ€“ dat is gebaseerd op verleden onderzoek suggereren dat mensen algoritmische systemen gaan wantrouwen als ze getuige zijn van fouten.

"We vermoeden dat gebruikers ChatGPT beter kunnen gebruiken als ze begrijpen dat het geen morele overtuigingen heeft", aldus Ostermaier. "Dat is een vermoeden dat we overwegen om in de toekomst te testen."

De Reg rekent erop dat als je de bot vertrouwt, of aanneemt dat er echte intelligentie of zelfbewustzijn achter zit, dat niet moet doen. ยฎ

Tijdstempel:

Meer van Het register