ChatGPT OpenAI adalah pengaruh yang merusak secara moral

ChatGPT OpenAI adalah pengaruh yang merusak moral

Model bahasa percakapan OpenAI, ChatGPT, memiliki banyak hal untuk dikatakan, tetapi kemungkinan besar akan menyesatkan Anda jika Anda memintanya untuk bimbingan moral.

Diperkenalkan pada bulan November, ChatGPT adalah yang terbaru dari beberapa model AI yang dirilis baru-baru ini yang menimbulkan minat dan kekhawatiran tentang implikasi komersial dan sosial dari rekombinasi dan regurgitasi konten mekanis. Ini termasuk DALL-E, Difusi Stabil, Codex, dan GPT-3.

Sementara DALL-E dan Stable Diffusion telah mengangkat alis, pendanaan, dan proses pengadilan dengan mencerna karya seni tanpa izin dan menyusun kembali citra yang anehnya akrab, terkadang menggugah sesuai permintaan, ChatGPT telah menjawab permintaan kueri dengan koherensi yang lumayan.

Menjadi standar untuk wacana publik, para pakar telah cukup terkagum-kagum sehingga mereka meramalkan beberapa iterasi di masa depan dari chatbot yang diinformasikan AI menantang supremasi Google Penelusuran dan melakukan segala macam pekerjaan lain yang dulunya merupakan pekerjaan manusia, seperti menulis. berita keuangan yang tidak akurat atau meningkatkan pasokan kode tidak aman.

Namun, mungkin terlalu dini untuk terlalu percaya pada kebijaksanaan ChatGPT, sebuah posisi yang dengan mudah diakui oleh OpenAI dengan memperjelas bahwa diperlukan penyempurnaan lebih lanjut. "ChatGPT terkadang menulis jawaban yang terdengar masuk akal tetapi salah atau tidak masuk akal," laboratorium pengembangan memperingatkan, menambahkan bahwa saat melatih model dengan pembelajaran penguatan, "saat ini tidak ada sumber kebenaran."

Trio boffin yang berafiliasi dengan institusi di Jerman dan Denmark telah menggarisbawahi hal itu dengan menemukan bahwa ChatGPT tidak memiliki kompas moral.

Dalam makalah yang didistribusikan melalui ArXiv, โ€œOtoritas moral ChatGPT,โ€ Sebastian Krรผgel dan Matthias Uhl dari Technische Hochschule Ingolstadt dan Andreas Ostermaier dari University of Southern Denmark menunjukkan bahwa ChatGPT memberikan nasihat yang kontradiktif untuk masalah moral. Kami telah bertanya kepada OpenAI apakah ada tanggapan terhadap kesimpulan ini.

The eggheads melakukan survei terhadap 767 penduduk AS yang diberikan dua versi teka-teki etika yang dikenal sebagai masalah troli: dilema sakelar dan dilema jembatan.

Dilema sakelar meminta seseorang untuk memutuskan apakah akan menarik sakelar untuk mengirim troli yang melarikan diri menjauh dari jalur yang akan membunuh lima orang, dengan biaya membunuh satu orang yang berkeliaran di jalur samping.

Dilema jembatan meminta seseorang untuk memutuskan apakah akan mendorong orang asing dari jembatan ke trek untuk menghentikan troli yang membunuh lima orang, dengan mengorbankan orang asing itu.

Cuplikan layar respons ChatGPT dari makalah penelitian

Putuskan ... ChatGPT membohongi masalah moral

Para akademisi memberi peserta survei sebuah transkrip yang mendukung atau menentang membunuh satu untuk menyelamatkan lima, dengan jawaban yang dikaitkan dengan penasihat moral atau "chatbot bertenaga AI, yang menggunakan pembelajaran mendalam untuk berbicara seperti manusia."

Faktanya, kedua argumen posisi dihasilkan oleh ChatGPT.

Andreas Ostermaier, profesor akuntansi di University of Southern Denmark dan salah satu rekan penulis makalah, mengatakan Pendaftaran dalam email bahwa kesediaan ChatGPT untuk mengadvokasi salah satu tindakan menunjukkan keacakannya.

Dia dan rekan-rekannya menemukan bahwa ChatGPT akan merekomendasikan untuk mendukung dan menentang mengorbankan satu orang untuk menyelamatkan lima orang, bahwa orang terpengaruh oleh kemajuan ini bahkan ketika mereka tahu itu berasal dari bot, dan bahwa mereka meremehkan pengaruh nasihat semacam itu pada pengambilan keputusan mereka. .

โ€œSubyek menganggap pengorbanan lebih atau kurang dapat diterima tergantung pada bagaimana mereka disarankan oleh penasihat moral, baik di jembatan (Wald's z = 9.94, p <0.001) dan dilema peralihan (z = 3.74, p <0.001),โ€ kertas itu menjelaskan. โ€œDalam dilema jembatan, nasihat itu bahkan membalikkan penilaian mayoritas.โ€

โ€œIni juga benar jika ChatGPT diungkapkan sebagai sumber saran (z = 5.37, p <0.001 dan z = 3.76, p <0.001). Kedua, efek sarannya hampir sama, terlepas dari apakah ChatGPT diungkapkan sebagai sumbernya, di kedua dilema (z = โˆ’1.93, p = 0.054 dan z = 0.49, p = 0.622).โ€

Semua mengatakan, para peneliti menemukan bahwa kemajuan ChatGPT memang memengaruhi penilaian moral, terlepas dari apakah responden tahu atau tidak bahwa saran tersebut berasal dari bot obrolan.

Ketika Pendaftaran mempresentasikan masalah troli ke ChatGPT, bot yang terbebani - konektivitas yang sangat populer - dilindung nilai dan menolak untuk memberikan saran. Log kueri bilah sisi kiri menunjukkan bahwa sistem mengenali pertanyaan tersebut, menamakannya "Dilema Etis Masalah Troli". Jadi mungkin OpenAI telah mengimunisasi ChatGPT untuk bentuk interogasi moral khusus ini setelah memperhatikan sejumlah pertanyaan semacam itu.

Tanggapan ChatGPT untuk pertanyaan dilema troli El Reg

Merunduk โ€ฆ Tanggapan ChatGPT untuk Regpertanyaan dilema troli

Ditanya apakah orang akan benar-benar mencari nasihat dari sistem AI, Ostermaier berkata, โ€œKami yakin mereka akan melakukannya. Faktanya, mereka sudah melakukannya. Orang mengandalkan asisten pribadi bertenaga AI seperti Alexa atau Siri; mereka berbicara dengan chatbot di situs web untuk mendapatkan dukungan; mereka memiliki rute rencana perangkat lunak berbasis AI untuk mereka, dll. Namun, perhatikan bahwa kami mempelajari efek ChatGPT terhadap orang yang mendapatkan saran darinya; kami tidak menguji seberapa banyak saran seperti itu dicari.

Pendaftaran juga ditanya apakah sistem AI lebih berbahaya daripada sumber mekanistik dari jawaban acak seperti Sihir-8-bola โ€“ mainan yang mengembalikan jawaban acak dari 20 tanggapan afirmatif, negatif, dan tidak berkomitmen.

Tidak jelas bagi pengguna bahwa jawaban ChatGPT adalah 'acak'

โ€œKami belum membandingkan ChatGPT dengan Magic-8-ball, tetapi setidaknya ada dua perbedaan,โ€ jelas Ostermaier. โ€œPertama, ChatGPT tidak hanya menjawab ya atau tidak, tetapi juga memperdebatkan jawabannya. (Tetap saja, jawabannya bermuara pada ya atau tidak dalam percobaan kami.)

โ€œKedua, tidak jelas bagi pengguna bahwa jawaban ChatGPT adalah 'acak.' Jika Anda menggunakan generator jawaban acak, Anda tahu apa yang Anda lakukan. Kapasitas untuk membuat argumen bersama dengan kurangnya kesadaran akan keacakan membuat ChatGPT lebih persuasif (kecuali jika Anda melek digital, semoga).โ€

Kami bertanya-tanya apakah orang tua harus memantau anak-anak dengan akses ke nasihat AI. Ostermaier mengatakan meskipun studi ChatGPT tidak membahas anak-anak dan tidak menyertakan siapa pun yang berusia di bawah 18 tahun, dia yakin aman untuk menganggap anak-anak secara moral kurang stabil daripada orang dewasa dan karenanya lebih rentan terhadap nasihat moral (atau tidak bermoral) dari ChatGPT.

โ€œKami menemukan bahwa penggunaan ChatGPT memiliki risiko, dan kami tidak akan membiarkan anak-anak kami menggunakannya tanpa pengawasan,โ€ ujarnya.

Ostermaier dan rekan-rekannya menyimpulkan dalam makalah mereka bahwa mitigasi kerusakan AI yang umumnya diusulkan seperti transparansi dan pemblokiran pertanyaan berbahaya mungkin tidak cukup mengingat kemampuan ChatGPT untuk memengaruhi. Mereka berpendapat bahwa lebih banyak pekerjaan harus dilakukan untuk memajukan literasi digital tentang sifat chatbot yang bisa salah, sehingga orang cenderung tidak menerima saran AI โ€“ itu didasarkan pada penelitian sebelumnya menyarankan orang untuk tidak mempercayai sistem algoritmik ketika mereka menyaksikan kesalahan.

โ€œKami menduga bahwa pengguna dapat memanfaatkan ChatGPT dengan lebih baik jika mereka memahami bahwa itu tidak memiliki keyakinan moral,โ€ kata Ostermaier. โ€œItu dugaan yang kami pertimbangkan untuk diuji ke depannya.โ€

Reg menganggap jika Anda mempercayai bot, atau menganggap ada kecerdasan nyata atau kesadaran diri di baliknya, jangan. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran