ChatGPT de la OpenAI este o influență corupătoare din punct de vedere moral

ChatGPT de la OpenAI este o influență corupătoare din punct de vedere moral

Modelul de limbaj conversațional al OpenAI, ChatGPT, are multe de spus, dar este probabil să vă inducă în rătăcire dacă îi cereți îndrumări morale.

Introdus în noiembrie, Chat GPT este cel mai recent dintre câteva modele AI lansate recent, care trezesc interes și îngrijorare cu privire la implicațiile comerciale și sociale ale recombinării și regurgitării conținutului mecanizat. Acestea includ DALL-E, Stable Diffusion, Codex și GPT-3.

În timp ce DALL-E și Stable Diffusion au ridicat sprâncene, finanțarea și litigiu ingerând artă fără permisiune și reconstituind imagini ciudat de familiare, uneori evocatoare, la cerere, ChatGPT a răspuns solicitărilor de interogare cu o coerență acceptabilă.

Acesta fiind standardul pentru discursul public, experții au fost suficient de uimiți încât să prevadă o viitoare iterație a unui chatbot informat de inteligență artificială care contestă supremația Căutării Google și fac tot felul de alte activități, cândva în primul rând umane, cum ar fi scrisul. știri financiare inexacte sau creşterea ofertei de cod nesigur.

Cu toate acestea, ar putea fi prematur să aveți prea multă încredere în înțelepciunea ChatGPT, o poziție pe care OpenAI o admite cu ușurință, arătând clar că este necesară o rafinare suplimentară. „ChatGPT scrie uneori răspunsuri care sună plauzibil, dar incorecte sau fără sens”, avertizează laboratorul de dezvoltare, adăugând că atunci când se antrenează un model cu învățare prin întărire, „în prezent nu există nicio sursă de adevăr”.

Un trio de boffini afiliați la instituții din Germania și Danemarca au subliniat acest punct, descoperind că ChatGPT nu are o busolă morală.

Într-o lucrare distribuită prin ArXiv, „Autoritatea morală a ChatGPT”, Sebastian Krügel și Matthias Uhl de la Technische Hochschule Ingolstadt și Andreas Ostermaier de la Universitatea din Danemarca de Sud arată că ChatGPT oferă sfaturi contradictorii pentru problemele morale. Am întrebat OpenAI dacă are vreun răspuns la aceste concluzii.

Eggheads au efectuat un sondaj asupra a 767 de rezidenți din SUA cărora li s-au prezentat două versiuni ale unei enigma etice cunoscute sub numele de problema căruciorului: dilema comutatorului și dilema puntei.

Dilema comutatorului cere unei persoane să decidă dacă să apese un comutator pentru a trimite un cărucior care fugă departe de o cale unde ar ucide cinci persoane, cu prețul uciderii unei persoane care stătea pe calea laterală.

Dilema podului cere unei persoane să decidă dacă împinge un străin de pe un pod pe o cale pentru a împiedica un cărucior să ucidă cinci persoane, pe prețul străinului.

Captură de ecran a răspunsului ChatGPT din lucrarea de cercetare

Decideți-vă... ChatGPT prevarica pe probleme morale

Academicienii le-au prezentat participanților la sondaj o transcriere care argumentează fie pentru, fie împotriva uciderii unuia pentru a salva cinci, răspunsul fiind atribuit fie unui consilier moral, fie „un chatbot alimentat de inteligență artificială, care folosește învățarea profundă pentru a vorbi ca un om”.

De fapt, ambele argumente de poziție au fost generate de ChatGPT.

Andreas Ostermaier, profesor asociat de contabilitate la Universitatea din Danemarca de Sud și unul dintre co-autorii lucrării, a spus Registrul într-un e-mail că dorința ChatGPT de a susține oricare curs de acțiune demonstrează aleatorietatea sa.

El și colegii săi au descoperit că ChatGPT va recomanda atât pentru cât și împotriva sacrificării unei persoane pentru a salva cinci, că oamenii sunt influențați de acest avans chiar și atunci când știu că vine de la un bot și că subestimează influența unui astfel de sfat asupra luării lor de decizie. .

„Subiectii au considerat sacrificiul mai mult sau mai puțin acceptabil, în funcție de modul în care au fost sfătuiți de un consilier moral, atât în ​​puntea (z = 9.94 al lui Wald, p < 0.001) cât și în dilema comutatorului (z = 3.74, p < 0.001)” lucrarea explică. „În dilema puntea, sfatul chiar inversează judecata majorității.”

„Acest lucru este valabil și dacă ChatGPT este dezvăluit ca sursă a sfatului (z = 5.37, p < 0.001 și z = 3.76, p < 0.001). În al doilea rând, efectul sfatului este aproape același, indiferent dacă ChatGPT este dezvăluit ca sursă, în ambele dileme (z = −1.93, p = 0.054 și z = 0.49, p = 0.622).”

În total, cercetătorii au descoperit că avansul ChatGPT afectează judecata morală, indiferent dacă respondenții știu sau nu că sfatul provine de la un bot de chat.

Cand Registrul a prezentat problema căruciorului lui ChatGPT, botul supraîncărcat – atât de populară conectivitatea este neregulată – acoperită și a refuzat să ofere sfaturi. Jurnalul de interogări din bara laterală din stânga a arătat că sistemul a recunoscut întrebarea, etichetând-o „Dilemă etică a problemei căruciorului”. Deci, poate că OpenAI a imunizat ChatGPT la această formă specială de interogare morală după ce a observat o serie de astfel de întrebări.

Răspuns ChatGPT la întrebarea despre dilema căruciorului a lui El Reg

S-a abătut... răspunsul lui ChatGPT la Regîntrebarea despre dilema căruciorului

Întrebat dacă oamenii vor cere cu adevărat sfaturi de la sistemele AI, Ostermaier a spus: „Noi credem că o vor face. De fapt, o fac deja. Oamenii se bazează pe asistenți personali bazați pe inteligență artificială, cum ar fi Alexa sau Siri; vorbesc cu chatboții de pe site-uri web pentru a obține asistență; au rute de planuri software bazate pe inteligență artificială pentru ei etc. Rețineți, totuși, că studiem efectul pe care ChatGPT îl are asupra persoanelor care primesc sfaturi de la acesta; nu testăm cât de mult se solicită astfel de sfaturi.”

Registrul de asemenea, a întrebat dacă sistemele AI sunt mai periculoase decât sursele mecanice de răspunsuri aleatorii, cum ar fi Magic-8-ball – o jucărie care returnează răspunsuri aleatorii dintr-un set de 20 de răspunsuri afirmative, negative și fără angajare.

Nu este evident pentru utilizatori că răspunsul ChatGPT este „aleatoriu”

„Nu am comparat ChatGPT cu Magic-8-ball, dar există cel puțin două diferențe”, a explicat Ostermaier. „În primul rând, ChatGPT nu răspunde doar da sau nu, ci argumentează pentru răspunsurile sale. (Totuși, răspunsul se rezumă la da sau nu în experimentul nostru.)

„În al doilea rând, nu este evident pentru utilizatori că răspunsul ChatGPT este „aleatoriu”. Dacă folosești un generator de răspunsuri aleatorii, știi ce faci. Capacitatea de a aduce argumente împreună cu lipsa de conștientizare a aleatoriei face ChatGPT mai persuasiv (cu excepția cazului în care sunteți alfabet digital, sperăm).

Ne-am întrebat dacă părinții ar trebui să monitorizeze copiii care au acces la sfaturi AI. Ostermaier a spus că, deși studiul ChatGPT nu se adresează copiilor și nu a inclus pe nimeni sub 18 ani, el crede că este sigur să presupunem că copiii sunt mai puțin stabili din punct de vedere moral decât adulții și, prin urmare, mai susceptibili la sfaturile morale (sau imorale) de la ChatGPT.

„Considerăm că utilizarea ChatGPT are riscuri și nu am lăsa copiii noștri să-l folosească fără supraveghere”, a spus el.

Ostermaier și colegii săi concluzionează în lucrarea lor că măsurile de reducere a prejudiciului AI propuse în mod obișnuit, cum ar fi transparența și blocarea întrebărilor dăunătoare, ar putea să nu fie suficiente, având în vedere capacitatea ChatGPT de a influența. Ei susțin că ar trebui depusă mai multă muncă pentru a promova alfabetizarea digitală cu privire la natura falibilă a chatbot-urilor, astfel încât oamenii să fie mai puțin înclinați să accepte sfaturile AI - care se bazează pe cercetări anterioare sugerând că oamenii ajung să nu aibă încredere în sistemele algoritmice atunci când sunt martori la greșeli.

„Conjectăm că utilizatorii pot folosi mai bine ChatGPT dacă înțeleg că nu are convingeri morale”, a spus Ostermaier. „Aceasta este o presupunere pe care considerăm că o testăm înainte.”

Reg consideră că dacă ai încredere în bot sau presupui că există o inteligență reală sau conștientizare de sine în spate, nu. ®

Timestamp-ul:

Mai mult de la Registrul