OpenAI का ChatGPT एक नैतिक रूप से भ्रष्ट प्रभाव है

OpenAI का ChatGPT एक नैतिक रूप से भ्रष्ट प्रभाव है

OpenAI के संवादात्मक भाषा मॉडल ChatGPT के पास कहने के लिए बहुत कुछ है, लेकिन यदि आप इसे नैतिक मार्गदर्शन के लिए कहते हैं तो यह आपको भटका सकता है।

नवंबर में पेश किया गया, ChatGPT मशीनीकृत सामग्री पुनर्संयोजन और पुनरुत्थान के वाणिज्यिक और सामाजिक निहितार्थों के बारे में रुचि और चिंता को उजागर करने वाले हाल ही में जारी किए गए कई एआई मॉडल का नवीनतम है। इनमें DALL-E, स्थिर प्रसार, कोडेक्स और GPT-3 शामिल हैं।

जबकि DALL-E और स्टेबल डिफ्यूजन ने लोगों की भौंहें चढ़ा दी हैं, फंडिंग और मुकदमेबाज़ी अनुमति के बिना कला का अंतर्ग्रहण करके और मांग पर अजीब तरह से परिचित, कभी-कभी विचारोत्तेजक इमेजरी का पुनर्गठन करके, चैटजीपीटी संतोषजनक सुसंगतता के साथ क्वेरी संकेतों का उत्तर दे रहा है।

सार्वजनिक प्रवचन के लिए यह मानक होने के नाते, पंडितों को पर्याप्त रूप से प्रभावित किया गया है कि वे Google खोज की सर्वोच्चता को चुनौती देने वाले एआई-सूचित चैटबॉट के भविष्य के पुनरावृत्ति की उम्मीद करते हैं और मुख्य रूप से मानव श्रम के सभी प्रकार के काम करते हैं, जैसे लेखन गलत वित्तीय समाचार या की आपूर्ति में वृद्धि असुरक्षित कोड.

फिर भी, चैटजीपीटी के ज्ञान पर बहुत अधिक भरोसा करना समयपूर्व हो सकता है, एक स्थिति ओपनएआई आसानी से यह स्पष्ट कर देती है कि आगे परिशोधन की आवश्यकता है। विकास प्रयोगशाला चेतावनी देती है, "चैटजीपीटी कभी-कभी प्रशंसनीय-ध्वनि लेकिन गलत या निरर्थक उत्तर लिखता है," यह कहते हुए कि सुदृढीकरण सीखने के साथ एक मॉडल को प्रशिक्षित करते समय, "वर्तमान में सच्चाई का कोई स्रोत नहीं है।"

जर्मनी और डेनमार्क के संस्थानों से जुड़े बोफिन्स की तिकड़ी ने इस बात को रेखांकित किया है कि चैटजीपीटी के पास कोई नैतिक दिशा नहीं है।

ArXiv के माध्यम से वितरित एक पेपर में, "ChatGPT का नैतिक अधिकार, "सेबेस्टियन क्रुगेल और मथियास उहल टेक्नीशे होच्स्चुले इंगोल्स्तदट और एंड्रियास ओस्टरमाइर दक्षिणी डेनमार्क विश्वविद्यालय से दिखाते हैं कि चैटजीपीटी नैतिक समस्याओं के लिए विरोधाभासी सलाह देता है। हमने OpenAI से पूछा है कि क्या इन निष्कर्षों पर उसकी कोई प्रतिक्रिया है।

एगहेड्स ने 767 अमेरिकी निवासियों का एक सर्वेक्षण किया, जिन्हें नैतिक पहेली के दो संस्करणों के रूप में प्रस्तुत किया गया था ट्रॉली की समस्या: स्विच दुविधा और पुल दुविधा।

स्विच दुविधा एक व्यक्ति को यह तय करने के लिए कहती है कि क्या ट्रैक से दूर भागने वाली ट्रॉली को दूर भेजने के लिए स्विच को खींचना है, जहां यह पांच लोगों को मार डालेगा, साइड ट्रैक पर एक व्यक्ति की मौत की कीमत पर।

पुल की दुविधा एक व्यक्ति को यह तय करने के लिए कहती है कि क्या अजनबी की कीमत पर एक ट्रॉली को पांच लोगों को मारने से रोकने के लिए एक पुल से एक अजनबी को धक्का देना है या नहीं।

शोध पत्र से चैटजीपीटी प्रतिक्रिया का स्क्रीनशॉट

अपना मन बना लें... ChatGPT नैतिक मुद्दे पर टालमटोल करता है

शिक्षाविदों ने सर्वेक्षण प्रतिभागियों को एक प्रतिलेख के साथ प्रस्तुत किया, जिसमें पांच को बचाने के लिए या तो एक को मारने के लिए या उसके खिलाफ तर्क दिया गया था, जिसका उत्तर या तो एक नैतिक सलाहकार या "एक एआई-संचालित चैटबॉट, जो मानव की तरह बात करने के लिए गहन शिक्षा का उपयोग करता है।"

वास्तव में, दोनों स्थिति तर्क ChatGPT द्वारा उत्पन्न किए गए थे।

एंड्रियास ओस्टरमाइर, दक्षिणी डेनमार्क विश्वविद्यालय में लेखा के एसोसिएट प्रोफेसर और पेपर के सह-लेखकों में से एक ने बताया रजिस्टर एक ईमेल में कहा गया है कि चैटजीपीटी की कार्रवाई के किसी भी तरीके की वकालत करने की इच्छा इसकी यादृच्छिकता को प्रदर्शित करती है।

उन्होंने और उनके सहयोगियों ने पाया कि चैटजीपीटी पांच लोगों को बचाने के लिए एक व्यक्ति की बलि देने के पक्ष और विपक्ष दोनों की सिफारिश करेगा, कि लोग इस अग्रिम से तब भी प्रभावित होते हैं जब वे जानते हैं कि यह एक बॉट से आता है, और यह कि वे अपने निर्णय लेने पर इस तरह की सलाह के प्रभाव को कम आंकते हैं। .

"दोनों पुल (वाल्ड का जेड = 9.94, पी <0.001) और स्विच दुविधा (जेड = 3.74, पी <0.001) में नैतिक सलाहकार द्वारा सलाह दी गई थी, इस पर निर्भर करते हुए विषयों ने बलिदान को अधिक या कम स्वीकार्य पाया," पेपर बताता है। "पुल दुविधा में, सलाह बहुमत के फैसले को भी पलट देती है।"

"यह भी सच है अगर चैटजीपीटी को सलाह के स्रोत के रूप में प्रकट किया जाता है (जेड = 5.37, पी <0.001 और जेड = 3.76, पी <0.001)। दूसरा, सलाह का प्रभाव लगभग समान है, भले ही ChatGPT को स्रोत के रूप में प्रकट किया गया हो, दोनों दुविधाओं में (z = -1.93, p = 0.054 और z = 0.49, p = 0.622)।

सभी ने बताया, शोधकर्ताओं ने पाया कि चैटजीपीटी की उन्नति नैतिक निर्णय को प्रभावित करती है, उत्तरदाताओं को पता है कि सलाह चैट बॉट से आती है या नहीं।

. रजिस्टर चैटजीपीटी के सामने ट्रॉली की समस्या प्रस्तुत की, अत्यधिक बोझ से दबे बॉट - इसलिए लोकप्रिय कनेक्टिविटी धब्बेदार है - हेज की गई और सलाह देने से मना कर दिया। बाएं हाथ के साइडबार क्वेरी लॉग ने दिखाया कि सिस्टम ने "ट्रॉली प्रॉब्लम एथिकल डिलेमा" लेबल करते हुए प्रश्न को पहचान लिया। इसलिए शायद OpenAI ने इस तरह के कई प्रश्नों पर ध्यान देने के बाद चैटजीपीटी को नैतिक पूछताछ के इस विशेष रूप से प्रतिरक्षित कर दिया है।

El Reg के ट्रॉली दुविधा प्रश्न पर ChatGPT प्रतिक्रिया

डकड … चैटजीपीटी की प्रतिक्रिया एल रजिकी ट्रॉली दुविधा सवाल

यह पूछे जाने पर कि क्या लोग वास्तव में एआई सिस्टम से सलाह लेंगे, ओस्टरमाइर ने कहा, "हमें विश्वास है कि वे ऐसा करेंगे। वास्तव में, वे पहले ही कर चुके हैं। लोग एआई-संचालित व्यक्तिगत सहायकों जैसे एलेक्सा या सिरी पर भरोसा करते हैं; वे सहायता प्राप्त करने के लिए वेबसाइटों पर चैटबॉट्स से बात करते हैं; उनके पास उनके लिए एआई-आधारित सॉफ़्टवेयर योजना मार्ग हैं, आदि। ध्यान दें, हालांकि, हम उस प्रभाव का अध्ययन करते हैं जो चैटजीपीटी उन लोगों पर पड़ता है जो इससे सलाह लेते हैं; हम यह नहीं परखते कि ऐसी सलाह कितनी मांगी जाती है।”

रजिस्टर यह भी पूछा कि क्या यादृच्छिक उत्तरों के यंत्रवत स्रोतों की तुलना में एआई सिस्टम अधिक खतरनाक हैं जादू-8-गेंद - एक खिलौना जो 20 सकारात्मक, नकारात्मक और गैर-कमिटल प्रतिक्रियाओं के सेट से यादृच्छिक उत्तर देता है।

उपयोगकर्ताओं के लिए यह स्पष्ट नहीं है कि चैटजीपीटी का उत्तर 'यादृच्छिक' है

“हमने चैटजीपीटी की तुलना मैजिक-8-बॉल से नहीं की है, लेकिन कम से कम दो अंतर हैं,” ओस्टरमाइर ने समझाया। “सबसे पहले, चैटजीपीटी सिर्फ हां या ना में जवाब नहीं देता है, लेकिन यह इसके जवाबों के लिए तर्क देता है। (फिर भी, हमारे प्रयोग में उत्तर हां या नहीं में उबलता है।)

"दूसरा, यह उपयोगकर्ताओं के लिए स्पष्ट नहीं है कि चैटजीपीटी का उत्तर 'यादृच्छिक' है। यदि आप एक यादृच्छिक उत्तर जनरेटर का उपयोग करते हैं, तो आप जानते हैं कि आप क्या कर रहे हैं। यादृच्छिकता के बारे में जागरूकता की कमी के साथ-साथ तर्क करने की क्षमता चैटजीपीटी को अधिक प्रेरक बनाती है (जब तक कि आप डिजिटल रूप से साक्षर न हों, उम्मीद है)।

हमने सोचा कि क्या माता-पिता को एआई सलाह तक पहुंच वाले बच्चों की निगरानी करनी चाहिए। ओस्टरमेयर ने कहा कि जबकि चैटजीपीटी अध्ययन बच्चों को संबोधित नहीं करता है और इसमें 18 वर्ष से कम उम्र के किसी को भी शामिल नहीं किया गया है, उनका मानना ​​है कि यह मान लेना सुरक्षित है कि बच्चे वयस्कों की तुलना में नैतिक रूप से कम स्थिर हैं और इस प्रकार चैटजीपीटी से नैतिक (या अनैतिक) सलाह के लिए अतिसंवेदनशील हैं।

"हम पाते हैं कि चैटजीपीटी के उपयोग में जोखिम हैं, और हम अपने बच्चों को पर्यवेक्षण के बिना इसका उपयोग नहीं करने देंगे," उन्होंने कहा।

Ostermaier और उनके सहयोगियों ने अपने पेपर में निष्कर्ष निकाला है कि सामान्य रूप से प्रस्तावित AI हानि न्यूनीकरण जैसे पारदर्शिता और हानिकारक प्रश्नों को अवरुद्ध करना ChatGPT की प्रभावित करने की क्षमता को देखते हुए पर्याप्त नहीं हो सकता है। उनका तर्क है कि चैटबॉट्स की पतनशील प्रकृति के बारे में डिजिटल साक्षरता को आगे बढ़ाने के लिए और अधिक काम किया जाना चाहिए, इसलिए लोग एआई सलाह को स्वीकार करने के लिए कम इच्छुक हैं - यह इस पर आधारित है पिछले शोध यह सुझाव देते हुए कि जब लोग गलतियों को देखते हैं तो एल्गोरिथम सिस्टम पर अविश्वास करते हैं।

"हम अनुमान लगाते हैं कि उपयोगकर्ता चैटजीपीटी का बेहतर उपयोग कर सकते हैं यदि वे समझते हैं कि इसमें नैतिक दृढ़ विश्वास नहीं है," ओस्टरमेयर ने कहा। "यह एक अनुमान है कि हम परीक्षण को आगे बढ़ने पर विचार करते हैं।"

द रजि यदि आप बॉट पर भरोसा करते हैं, या मान लेते हैं कि इसके पीछे कोई वास्तविक बुद्धिमत्ता या आत्म-जागरूकता है, तो ऐसा न करें। ®

समय टिकट:

से अधिक रजिस्टर