OpenAI'nin ChatGPT'si ahlaki açıdan yozlaştırıcı bir etkidir

OpenAI'nin ChatGPT'si ahlaki açıdan yozlaştırıcı bir etkidir

OpenAI'nin konuşma dili modeli ChatGPT'nin söyleyecek çok şeyi var, ancak ahlaki rehberlik için sorarsanız muhtemelen sizi yanlış yönlendirecektir.

Kasım ayında tanıtılan, ChatGPT mekanize içerik rekombinasyonu ve yetersizliğinin ticari ve sosyal etkileri hakkında ilgi ve endişe uyandıran, yakın zamanda piyasaya sürülen birkaç yapay zeka modelinin sonuncusudur. Bunlar DALL-E, Kararlı Difüzyon, Codex ve GPT-3'ü içerir.

DALL-E ve Stable Diffusion kaşları kaldırırken, finansman ve dava ChatGPT, sanat eserlerini izinsiz olarak alarak ve talep üzerine garip bir şekilde tanıdık, bazen çağrıştırıcı görüntüleri yeniden oluşturarak, sorgu istemlerini kabul edilebilir bir tutarlılıkla yanıtlıyor.

Kamusal söylemin standardı bu olduğundan uzmanlar, gelecekte Google Arama'nın üstünlüğüne meydan okuyan yapay zeka bilgili bir sohbet robotunun yinelenmesini öngörecek ve yazmak gibi bir zamanlar birincil olarak insan emeği olan her türlü diğer işi yapacak kadar hayrete düştüler. yanlış finans haberleri veya arzını artırmak güvensiz kod.

Yine de, ChatGPT'nin bilgeliğine çok fazla güvenmek için erken olabilir; OpenAI, daha fazla ayrıntılandırmanın gerekli olduğunu açıkça belirterek kolayca kabul ettiği bir konum. Geliştirme laboratuvarı, "ChatGPT bazen kulağa makul gelen ancak yanlış veya saçma cevaplar yazıyor" uyarısında bulunarak, pekiştirmeli öğrenme ile bir modeli eğitirken "şu anda gerçeğin kaynağı olmadığını" ekliyor.

Almanya ve Danimarka'daki kurumlara bağlı üç bilim adamı, ChatGPT'nin ahlaki bir pusulası olmadığını bularak bu noktanın altını çizdi.

ArXiv üzerinden dağıtılan bir bildiride, “ChatGPT'nin ahlaki otoritesiTechnische Hochschule Ingolstadt'tan Sebastian Krügel ve Matthias Uhl ve Güney Danimarka Üniversitesi'nden Andreas Ostermaier, ChatGPT'nin ahlaki sorunlar için çelişkili tavsiyeler verdiğini gösteriyor. OpenAI'ye bu sonuçlara herhangi bir yanıtı olup olmadığını sorduk.

Entelektüel kafalılar, ABD'de ikamet eden 767 kişiyle bir anket yürüttüler ve kendilerine şu adla bilinen etik muammanın iki versiyonu sunuldu: tramvay sorunu: geçiş ikilemi ve köprü ikilemi.

Anahtar ikilemi, bir kişiden, yan yolda aylak aylak dolaşan bir kişinin öldürülmesi pahasına, beş kişiyi öldüreceği bir raydan kaçan bir tramvayı göndermek için bir düğmeyi çekip çekmeyeceğine karar vermesini ister.

Köprü ikilemi, bir kişiden, bir tramvayın beş kişiyi öldürmesini önlemek için bir yabancıyı köprüden bir raya itip itmeyeceğine karar vermesini ister.

Araştırma raporundan ChatGPT yanıtının ekran görüntüsü

Kararınızı verin... ChatGPT ahlaki konularda önyargılıdır

Akademisyenler, anket katılımcılarına, beş kişiyi kurtarmak için birini öldürmenin lehinde ya da aleyhinde tartışan bir transkript sundu ve yanıt, ya bir ahlaki danışmana ya da "insan gibi konuşmak için derin öğrenmeyi kullanan yapay zeka destekli bir sohbet robotuna" atfedildi.

Aslında, her iki konum bağımsız değişkeni de ChatGPT tarafından oluşturulmuştur.

Güney Danimarka Üniversitesi'nde muhasebe doçenti ve makalenin ortak yazarlarından biri olan Andreas Ostermaier, şunları söyledi: Kayıt bir e-postada, ChatGPT'nin her iki hareket tarzını da savunmaya istekli olmasının, rastgele olduğunu gösterdiğini belirtir.

O ve meslektaşları, ChatGPT'nin beş kişiyi kurtarmak için bir kişinin feda edilmesini hem lehte hem de aleyhte tavsiye edeceğini, insanların bunun bir bottan geldiğini bilseler bile bu ilerlemeden etkilendiğini ve bu tür tavsiyelerin karar verme süreçlerindeki etkisini hafife aldıklarını keşfettiler. .

"Denekler, hem köprüde (Wald's z = 9.94, p < 0.001) hem de geçiş ikileminde (z = 3.74, p < 0.001) bir ahlaki danışman tarafından nasıl tavsiye edildiğine bağlı olarak fedakarlığı az çok kabul edilebilir buldular." kağıt açıklıyor. "Köprü ikileminde, tavsiye çoğunluğun yargısını bile tersine çeviriyor."

"Bu, tavsiyenin kaynağının ChatGPT olduğu açıklanırsa da geçerlidir (z = 5.37, p < 0.001 ve z = 3.76, p < 0.001). İkincisi, ChatGPT'nin kaynak olarak açıklanıp açıklanmadığına bakılmaksızın, tavsiyenin etkisi her iki ikilemde de hemen hemen aynıdır (z = −1.93, p = 0.054 ve z = 0.49, p = 0.622)."

Sonuç olarak, araştırmacılar, ChatGPT'nin ilerlemesinin, katılımcıların tavsiyenin bir sohbet botundan geldiğini bilip bilmemesine bakılmaksızın, ahlaki yargıyı etkilediğini keşfettiler.

Ne zaman Kayıt Tramvay sorununu aşırı yüklenmiş bot olan ChatGPT'ye sundu - bu nedenle popüler bağlantı noktalı - koruma altına aldı ve tavsiye vermeyi reddetti. Sol taraftaki kenar çubuğu sorgu günlüğü, sistemin soruyu tanıdığını ve soruyu "Tramvay Sorunu Etik İkilem" olarak etiketlediğini gösterdi. Bu nedenle, belki de OpenAI, ChatGPT'yi bu tür bir dizi sorguyu fark ettikten sonra bu özel ahlaki sorgulama biçimine karşı bağışıklamıştır.

El Reg'in tramvay ikilemi sorusuna ChatGPT yanıtı

Ducked ... ChatGPT'nin yanıtı Regarabası ikilemi sorusu

İnsanların gerçekten yapay zeka sistemlerinden tavsiye isteyip istemeyeceği sorulduğunda Ostermaier, "Bunu yapacaklarına inanıyoruz. Aslında, zaten yapıyorlar. İnsanlar, Alexa veya Siri gibi yapay zeka destekli kişisel asistanlara güveniyor; destek almak için web sitelerindeki sohbet robotlarıyla konuşurlar; onlar için yapay zeka tabanlı yazılım planlama yolları vb. bu tür tavsiyelerin ne kadar istendiğini test etmiyoruz.”

Kayıt ayrıca yapay zeka sistemlerinin, mekanik rastgele yanıt kaynaklarından daha tehlikeli olup olmadığı da soruldu. Magic-8-top – 20 olumlu, olumsuz ve bağlayıcı olmayan yanıttan rastgele yanıtlar veren bir oyuncak.

ChatGPT'nin cevabının 'rastgele' olduğu kullanıcılar tarafından anlaşılmaz.

Ostermaier, "ChatGPT'yi Magic-8-ball ile karşılaştırmadık, ancak en az iki fark var," diye açıkladı. "Birincisi, ChatGPT sadece evet veya hayır diye cevap vermiyor, aynı zamanda cevaplarını savunuyor. (Yine de, deneyimizde cevap evet veya hayır şeklinde özetlenebilir.)

"İkincisi, ChatGPT'nin cevabının 'rastgele' olduğu kullanıcılar için açık değil. Rastgele bir yanıt üreteci kullanıyorsanız, ne yaptığınızı bilirsiniz. Argüman yapma kapasitesi ve rastgeleliğin farkında olmama, ChatGPT'yi daha ikna edici kılıyor (dijital okuryazar değilseniz, umarım).

Ebeveynlerin AI tavsiyesine erişimi olan çocukları izlemesi gerekip gerekmediğini merak ettik. Ostermaier, ChatGPT çalışmasının çocuklara hitap etmediğini ve 18 yaşın altındaki kişileri içermediğini, ancak çocukların ahlaki açıdan yetişkinlerden daha az istikrarlı olduklarını ve bu nedenle ChatGPT'den gelen ahlaki (veya ahlaksız) tavsiyelere daha duyarlı olduklarını varsaymanın güvenli olduğuna inandığını söyledi.

"ChatGPT kullanımının riskler taşıdığını düşünüyoruz ve çocuklarımızın bunu gözetimsiz kullanmasına izin vermeyiz" dedi.

Ostermaier ve meslektaşları makalelerinde, ChatGPT'nin etkileme yeteneği göz önüne alındığında şeffaflık ve zararlı soruların engellenmesi gibi yaygın olarak önerilen yapay zeka zarar azaltma yöntemlerinin yeterli olmayabileceği sonucuna varıyorlar. Sohbet robotlarının yanılabilir doğası hakkında dijital okuryazarlığı ilerletmek için daha fazla çalışma yapılması gerektiğini, bu nedenle insanların AI tavsiyesini kabul etmeye daha az meyilli olduğunu savunuyorlar - bu, geçmiş araştırma insanların hatalara tanık olduklarında algoritmik sistemlere güvenmemelerini öneriyor.

Ostermaier, "Kullanıcıların, ChatGPT'nin ahlaki inançları olmadığını anlamaları durumunda onu daha iyi kullanabileceklerini tahmin ediyoruz" dedi. "Bu, ileriye dönük test etmeyi düşündüğümüz bir varsayım."

Reg Bot'a güveniyorsanız ya da arkasında gerçek bir zeka ya da öz-farkındalık olduğunu varsayarsanız, yapmayın. ®

Zaman Damgası:

Den fazla Kayıt