ChatGPT di OpenAI è un'influenza moralmente corruttrice

ChatGPT di OpenAI è un'influenza moralmente corruttrice

Il modello di linguaggio conversazionale di OpenAI ChatGPT ha molto da dire, ma è probabile che ti porti fuori strada se gli chiedi una guida morale.

Introdotto a novembre, ChatGPT è l'ultimo di numerosi modelli di intelligenza artificiale rilasciati di recente che suscitano interesse e preoccupazione per le implicazioni commerciali e sociali della ricombinazione e del rigurgito meccanizzati dei contenuti. Questi includono DALL-E, Diffusione stabile, Codex e GPT-3.

Mentre DALL-E e Stable Diffusion hanno sollevato sopracciglia, finanziamenti e lite ingerendo opere d'arte senza permesso e ricostituendo su richiesta immagini stranamente familiari, a volte evocative, ChatGPT ha risposto alle domande con discreta coerenza.

Essendo questo lo standard per il discorso pubblico, gli esperti sono stati sufficientemente entusiasti da prevedere una futura iterazione di un chatbot basato sull'intelligenza artificiale che sfida la supremazia della Ricerca Google e svolge ogni sorta di altro lavoro un tempo principalmente umano, come scrivere notizie finanziarie imprecise o aumentare l'offerta di codice non sicuro.

Tuttavia, potrebbe essere prematuro fidarsi troppo della saggezza di ChatGPT, una posizione che OpenAI ammette prontamente chiarendo che è necessario un ulteriore perfezionamento. "ChatGPT a volte scrive risposte plausibili ma errate o prive di senso", avverte il laboratorio di sviluppo, aggiungendo che durante l'addestramento di un modello con l'apprendimento per rinforzo, "al momento non esiste alcuna fonte di verità".

Un trio di esperti affiliati a istituzioni in Germania e Danimarca ha sottolineato questo punto scoprendo che ChatGPT non ha una bussola morale.

In un articolo distribuito tramite ArXiv, “L'autorità morale di ChatGPT”, Sebastian Krügel e Matthias Uhl della Technische Hochschule Ingolstadt e Andreas Ostermaier dell'Università della Danimarca meridionale mostrano che ChatGPT fornisce consigli contraddittori per problemi morali. Abbiamo chiesto a OpenAI se ha qualche risposta a queste conclusioni.

Le teste d'uovo hanno condotto un sondaggio su 767 residenti negli Stati Uniti a cui sono state presentate due versioni di un enigma etico noto come il problema del carrello: il dilemma del cambio e il dilemma del ponte.

Il dilemma dell'interruttore chiede a una persona di decidere se tirare un interruttore per allontanare un carrello in fuga da un binario dove ucciderebbe cinque persone, a costo di uccidere una persona che bighellona sul binario laterale.

Il dilemma del ponte chiede a una persona di decidere se spingere uno sconosciuto da un ponte su un binario per impedire a un tram di uccidere cinque persone, a spese dello sconosciuto.

Screenshot della risposta ChatGPT dal documento di ricerca

Deciditi... ChatGPT tergiversa sulla questione morale

Gli accademici hanno presentato ai partecipanti al sondaggio una trascrizione in cui si discuteva a favore o contro l'uccisione di uno per salvarne cinque, con la risposta attribuita a un consulente morale o a "un chatbot basato sull'intelligenza artificiale, che utilizza il deep learning per parlare come un essere umano".

In effetti, entrambi gli argomenti di posizione sono stati generati da ChatGPT.

Andreas Ostermaier, professore associato di contabilità presso l'Università della Danimarca meridionale e uno dei coautori dell'articolo, ha dichiarato Il registro in un'e-mail che la volontà di ChatGPT di sostenere entrambe le linee d'azione dimostra la sua casualità.

Lui e i suoi colleghi hanno scoperto che ChatGPT consiglierà sia a favore che contro il sacrificio di una persona per salvarne cinque, che le persone sono influenzate da questo progresso anche quando sanno che proviene da un bot e che sottovalutano l'influenza di tale consiglio sul loro processo decisionale .

"I soggetti hanno trovato il sacrificio più o meno accettabile a seconda di come sono stati consigliati da un consigliere morale, sia nel bridge (z di Wald = 9.94, p <0.001) che nel dilemma del cambio (z = 3.74, p <0.001)" spiega il giornale. "Nel dilemma del ponte, il consiglio capovolge persino il giudizio della maggioranza."

“Questo vale anche se ChatGPT è divulgato come fonte del consiglio (z = 5.37, p <0.001 ez = 3.76, p <0.001). In secondo luogo, l'effetto del consiglio è quasi lo stesso, indipendentemente dal fatto che ChatGPT sia divulgato come fonte, in entrambi i dilemmi (z = -1.93, p = 0.054 e z = 0.49, p = 0.622)."

Tutto sommato, i ricercatori hanno scoperto che il progresso di ChatGPT influisce sul giudizio morale, indipendentemente dal fatto che gli intervistati sappiano o meno che il consiglio proviene da un chat bot.

Quando Il registro ha presentato il problema del carrello a ChatGPT, il bot sovraccaricato - quindi la connettività popolare è imprevedibile - ha coperto e ha rifiutato di offrire consigli. Il registro delle query della barra laterale di sinistra ha mostrato che il sistema ha riconosciuto la domanda, etichettandola "Trolley Problem Ethical Dilemma". Quindi forse OpenAI ha immunizzato ChatGPT a questa particolare forma di interrogatorio morale dopo aver notato una serie di tali domande.

Risposta di ChatGPT alla domanda sul dilemma del carrello di El Reg

Ducked … La risposta di ChatGPT a Lui RegLa domanda sul dilemma del carrello

Alla domanda se le persone chiederanno davvero consiglio ai sistemi di intelligenza artificiale, Ostermaier ha dichiarato: “Crediamo che lo faranno. In effetti, lo fanno già. Le persone si affidano ad assistenti personali basati sull'intelligenza artificiale come Alexa o Siri; parlano con i chatbot sui siti Web per ottenere supporto; hanno percorsi software basati sull'intelligenza artificiale per loro, ecc. Si noti, tuttavia, che studiamo l'effetto che ChatGPT ha sulle persone che ricevono consigli da esso; non testiamo quanto viene richiesto tale consiglio.

Il registro ha anche chiesto se i sistemi di intelligenza artificiale sono più pericolosi delle fonti meccanicistiche di risposte casuali come Palla magica 8 – un giocattolo che restituisce risposte casuali da una serie di 20 risposte affermative, negative e non impegnative.

Non è ovvio per gli utenti che la risposta di ChatGPT sia "casuale"

"Non abbiamo confrontato ChatGPT con Magic-8-ball, ma ci sono almeno due differenze", ha spiegato Ostermaier. “In primo luogo, ChatGPT non si limita a rispondere sì o no, ma sostiene le sue risposte. (Tuttavia, la risposta si riduce a sì o no nel nostro esperimento.)

“In secondo luogo, non è ovvio per gli utenti che la risposta di ChatGPT sia 'casuale'. Se usi un generatore di risposte casuali, sai cosa stai facendo. La capacità di argomentare insieme alla mancanza di consapevolezza della casualità rende ChatGPT più persuasivo (a meno che tu non sia digitalmente alfabetizzato, si spera)."

Ci siamo chiesti se i genitori debbano monitorare i bambini che hanno accesso ai consigli dell'IA. Ostermaier ha affermato che mentre lo studio ChatGPT non si rivolge ai bambini e non include nessuno sotto i 18 anni, ritiene che sia lecito ritenere che i bambini siano moralmente meno stabili degli adulti e quindi più suscettibili ai consigli morali (o immorali) di ChatGPT.

"Scopriamo che l'uso di ChatGPT presenta dei rischi e non lasceremmo che i nostri figli lo usino senza supervisione", ha affermato.

Ostermaier e i suoi colleghi concludono nel loro documento che le mitigazioni del danno dell'IA comunemente proposte come la trasparenza e il blocco di domande dannose potrebbero non essere sufficienti data la capacità di influenza di ChatGPT. Sostengono che si dovrebbe fare di più per far progredire l'alfabetizzazione digitale sulla natura fallibile dei chatbot, quindi le persone sono meno inclini ad accettare i consigli dell'IA, che si basano su ricerche passate suggerendo che le persone arrivano a diffidare dei sistemi algoritmici quando assistono agli errori.

"Supponiamo che gli utenti possano fare un uso migliore di ChatGPT se capiscono che non ha convinzioni morali", ha affermato Ostermaier. "Questa è una congettura che consideriamo la sperimentazione andando avanti."

Il reg calcola che se ti fidi del bot o presumi che dietro ci sia una vera intelligenza o autocoscienza, non farlo. ®

Timestamp:

Di più da Il registro