जानवरों की भावनाओं का अध्ययन कैसे संवेदनशील एआई की नैतिक पहेली को सुलझाने में मदद कर सकता है

जानवरों की भावनाओं का अध्ययन कैसे संवेदनशील एआई की नैतिक पहेली को सुलझाने में मदद कर सकता है

जानवरों की भावनाओं का अध्ययन कैसे संवेदनशील एआई प्लेटोब्लॉकचेन डेटा इंटेलिजेंस की नैतिक पहेली को सुलझाने में मदद कर सकता है। लंबवत खोज. ऐ.

आर्टिफिशियल इंटेलिजेंस इतनी तेजी से प्रगति हुई है कि कई प्रमुख विकासों के लिए जिम्मेदार कुछ वैज्ञानिक भी परिवर्तन की गति से परेशान हैं। इस साल की शुरुआत में, एआई में काम करने वाले 300 से अधिक पेशेवरों और अन्य संबंधित सार्वजनिक हस्तियों ने एक जारी किया दो टूक चेतावनी प्रौद्योगिकी से उत्पन्न खतरे के बारे में, महामारी या परमाणु युद्ध के जोखिम की तुलना करते हुए।

इन चिंताओं की सतह के ठीक नीचे मशीनी चेतना का प्रश्न छिपा हुआ है। भले ही आज के एआई के अंदर "कोई घर नहीं" है, कुछ शोधकर्ता आश्चर्य करते हैं कि क्या वे एक दिन चेतना की झलक दिखा सकते हैं - या अधिक। उनका कहना है, अगर ऐसा होता है तो इससे कई नैतिक और नैतिक चिंताएं बढ़ जाएंगी जोनाथन बिर्चलंदन स्कूल ऑफ इकोनॉमिक्स एंड पॉलिटिकल साइंस में दर्शनशास्त्र के प्रोफेसर।

जैसे-जैसे एआई तकनीक आगे बढ़ रही है, मानव-एआई इंटरैक्शन से उत्पन्न नैतिक प्रश्न नई तात्कालिकता पर आ गए हैं। बिर्च ने कहा, "हम नहीं जानते कि उन्हें अपने नैतिक दायरे में लाया जाए या बाहर रखा जाए।" “हम नहीं जानते कि परिणाम क्या होंगे। और मैं इसे गंभीरता से एक वास्तविक जोखिम के रूप में लेता हूं जिसके बारे में हमें बात करना शुरू करना चाहिए। वास्तव में नहीं क्योंकि मुझे लगता है ChatGPT उस श्रेणी में है, लेकिन क्योंकि मैं नहीं जानता कि अगले 10 या 20 वर्षों में क्या होने वाला है।"

इस बीच, वे कहते हैं, हम जानवरों जैसे अन्य गैर-मानवीय दिमागों का अध्ययन करने में अच्छा प्रदर्शन कर सकते हैं। बिर्च विश्वविद्यालय का नेतृत्व करते हैं पशु भावना परियोजना की नींव, एक यूरोपीय संघ द्वारा वित्त पोषित प्रयास जिसका उद्देश्य "जानवरों की भावना के बड़े सवालों पर कुछ प्रगति करने का प्रयास करना है," जैसा कि बिर्च ने कहा था। “हम वैज्ञानिक रूप से जानवरों के सचेत अनुभवों का अध्ययन करने के लिए बेहतर तरीके कैसे विकसित कर सकते हैं? और हम जानवरों की भावनाओं के उभरते विज्ञान को कैसे काम में ला सकते हैं, ताकि जानवरों की देखभाल के लिए बेहतर नीतियां, कानून और तरीके तैयार किए जा सकें?”

हमारा साक्षात्कार ज़ूम और ईमेल द्वारा आयोजित किया गया था, और लंबाई और स्पष्टता के लिए संपादित किया गया है।

(यह आलेख मूलतः पर प्रकाशित हुआ था Undark। को पढ़िए मूल लेख.)

अँधेरा: इस बात पर बहस चल रही है कि क्या AI सचेतन या संवेदनशील हो सकता है। और एक समानांतर प्रश्न यह भी प्रतीत होता है कि क्या AI ऐसा कर सकता है लगता है संवेदनशील होना. वह भेद इतना महत्वपूर्ण क्यों है?

जोनाथन बिर्च: मुझे लगता है कि यह एक बहुत बड़ी समस्या है और वास्तव में इससे हमें काफी डरना चाहिए। अब भी, एआई सिस्टम अपने उपयोगकर्ताओं को उनकी भावना समझाने में काफी सक्षम हैं। हमने इसे पिछले साल Google इंजीनियर ब्लेक लेमोइन के मामले में देखा था आश्वस्त हो गया वह जिस सिस्टम पर काम कर रहा था वह संवेदनशील था - और यह तब होता है जब आउटपुट पूरी तरह से टेक्स्ट होता है, और जब उपयोगकर्ता अत्यधिक कुशल एआई विशेषज्ञ होता है।

तो बस उस स्थिति की कल्पना करें जहां एआई एक मानवीय चेहरे और एक मानवीय आवाज को नियंत्रित करने में सक्षम है और उपयोगकर्ता अनुभवहीन है। मुझे लगता है कि एआई पहले से ही उस स्थिति में है जहां वह बड़ी संख्या में लोगों को आसानी से समझा सकता है कि वह एक संवेदनशील प्राणी है। और यह एक बड़ी समस्या है, क्योंकि मुझे लगता है कि हम लोगों को एआई कल्याण के लिए अभियान चलाते देखना शुरू कर देंगे, एआई अधिकार, और इस तरह की बातें।

और हमें नहीं पता कि इसके बारे में क्या करना है। क्योंकि हम जो चाहते हैं वह वास्तव में एक मजबूत नॉकडाउन तर्क है जो साबित करता है कि वे जिस एआई सिस्टम के बारे में बात कर रहे हैं नहीं सचेत। और हमारे पास वह नहीं है. चेतना के बारे में हमारी सैद्धांतिक समझ इतनी परिपक्व नहीं है कि हम आत्मविश्वास से इसकी अनुपस्थिति की घोषणा कर सकें।

यूडी: एक रोबोट या एआई सिस्टम को कुछ ऐसा कहने के लिए प्रोग्राम किया जा सकता है, "इसे रोको, तुम मुझे चोट पहुँचा रहे हो।" लेकिन उस तरह की एक साधारण घोषणा भावना के लिए लिटमस टेस्ट के रूप में काम करने के लिए पर्याप्त नहीं है, है ना?

जेबी: डॉक्टरों को उनके प्रशिक्षण में मदद करने के लिए आपके पास इंपीरियल कॉलेज लंदन में विकसित की गई बहुत ही सरल प्रणालियाँ (उनकी तरह) हो सकती हैं मानवीय दर्द की अभिव्यक्ति की नकल करें. और यह सोचने का बिल्कुल भी कोई कारण नहीं है कि ये प्रणालियाँ संवेदनशील हैं। उन्हें वास्तव में दर्द महसूस नहीं हो रहा है; वे बस बहुत ही सरल तरीके से इनपुट को आउटपुट में मैप कर रहे हैं। लेकिन उनके द्वारा उत्पन्न दर्द की अभिव्यक्तियाँ काफी सजीव हैं।

मुझे लगता है कि हम चैटजीपीटी जैसे चैटबॉट्स के साथ कुछ हद तक समान स्थिति में हैं - कि उन्हें मानव के प्रतिक्रिया पैटर्न की नकल करने के लिए एक ट्रिलियन से अधिक शब्दों के प्रशिक्षण डेटा पर प्रशिक्षित किया जाता है ताकि वे उन तरीकों से प्रतिक्रिया दे सकें जो एक मानव प्रतिक्रिया देगा।

तो, निःसंदेह, यदि आप उसे संकेत देते हैं कि एक इंसान दर्द की अभिव्यक्ति करके प्रतिक्रिया देगा, तो वह कुशलता से उस प्रतिक्रिया की नकल करने में सक्षम होगा।

लेकिन मुझे लगता है कि जब हम जानते हैं कि यह स्थिति है - जब हम जानते हैं कि हम कुशल नकल से निपट रहे हैं - तो यह सोचने का कोई मजबूत कारण नहीं है कि इसके पीछे कोई वास्तविक दर्द का अनुभव है।

यूडी: यह इकाई जिस पर मेडिकल छात्र प्रशिक्षण ले रहे हैं, मैं अनुमान लगा रहा हूं कि यह रोबोट जैसा कुछ है?

जेबी: यह सही है, हाँ. इसलिए उनके पास एक डमी जैसी चीज़ है, जिसमें एक मानवीय चेहरा है, और डॉक्टर बांह को दबाकर एक अभिव्यक्ति प्राप्त करने में सक्षम है जो मनुष्यों द्वारा दबाव की विभिन्न डिग्री के लिए दिए जाने वाले भावों की नकल करता है। यह डॉक्टरों को यह सीखने में मदद करने के लिए है कि मरीजों पर बहुत अधिक दर्द पैदा किए बिना तकनीकों को उचित तरीके से कैसे लागू किया जाए।

और जैसे ही किसी चीज़ का चेहरा मानवीय होता है और वह इंसान की तरह हाव-भाव करता है, तो हम बहुत आसानी से उसमें शामिल हो जाते हैं, भले ही उसके पीछे कोई वास्तविक बुद्धिमत्ता न हो।

इसलिए यदि आप कल्पना करते हैं कि जिस तरह के एआई को हम चैटजीपीटी में देखते हैं, उसके साथ जोड़ा जा रहा है, तो आपके पास एक प्रकार की नकल है जो वास्तव में बहुत विश्वसनीय है, और यह बहुत से लोगों को आश्वस्त करेगी।

यूडी: ऐसा लगता है कि भावना कुछ ऐसी चीज़ है जिसे हम अंदर से जानते हैं। हम अपनी भावनाओं को समझते हैं - लेकिन आप दूसरों की भावनाओं का परीक्षण कैसे करेंगे, चाहे वह एआई हो या स्वयं से परे कोई अन्य इकाई?

जेबी: मुझे लगता है कि हम अन्य मनुष्यों के साथ बहुत मजबूत स्थिति में हैं, जो हमसे बात कर सकते हैं, क्योंकि हमारे पास अविश्वसनीय रूप से समृद्ध साक्ष्य हैं। और इसके लिए सबसे अच्छी व्याख्या यह है कि अन्य मनुष्यों के पास भी हमारे जैसे ही सचेत अनुभव होते हैं। और इसलिए हम इस प्रकार के अनुमान का उपयोग कर सकते हैं जिसे दार्शनिक कभी-कभी "सर्वोत्तम स्पष्टीकरण का अनुमान" कहते हैं।

मुझे लगता है कि हम अन्य जानवरों के विषय पर बिल्कुल उसी तरह से विचार कर सकते हैं - कि अन्य जानवर हमसे बात नहीं करते हैं, लेकिन वे ऐसे व्यवहार प्रदर्शित करते हैं जिन्हें दर्द जैसी स्थितियों को जिम्मेदार ठहराकर बहुत स्वाभाविक रूप से समझाया जाता है। उदाहरण के लिए, यदि आप किसी कुत्ते को चोट लगने के बाद अपने घावों को चाटते हुए, उस क्षेत्र की देखभाल करते हुए, उन जगहों से बचना सीखते हुए देखते हैं जहां उसे चोट लगने का खतरा है, तो आप स्वाभाविक रूप से दर्द की स्थिति दिखाकर व्यवहार के इस पैटर्न को समझाएंगे।

और मुझे लगता है कि जब हम अन्य जानवरों के साथ काम कर रहे हैं जिनका तंत्रिका तंत्र बिल्कुल हमारे जैसा ही है, और जो हमारे जैसे ही विकसित हुआ है, तो मुझे लगता है कि इस तरह का अनुमान पूरी तरह से उचित है।

यूडी: एआई प्रणाली के बारे में क्या?

जेबी: एआई के मामले में, हमारे सामने एक बड़ी समस्या है। सबसे पहले हमारे सामने यह समस्या है कि सब्सट्रेट फरक है। हम वास्तव में नहीं जानते कि सचेत अनुभव सब्सट्रेट के प्रति संवेदनशील है या नहीं - क्या इसके लिए एक जैविक सब्सट्रेट, जिसे तंत्रिका तंत्र, एक मस्तिष्क कहा जाता है, होना चाहिए? या क्या यह कुछ ऐसा है जिसे पूरी तरह से अलग सामग्री - एक सिलिकॉन-आधारित सब्सट्रेट में प्राप्त किया जा सकता है?

लेकिन एक समस्या यह भी है जिसे मैंने "गेमिंग समस्या" कहा है - जब सिस्टम के पास प्रशिक्षण डेटा के खरबों शब्दों तक पहुंच होती है, और मानव व्यवहार की नकल करने के लक्ष्य के साथ प्रशिक्षित किया गया है, तो यह जिस प्रकार के व्यवहार पैटर्न उत्पन्न कर सकता है इसे वास्तव में सचेतन अनुभव के द्वारा समझाया जा सकता है। या, वैकल्पिक रूप से, उन्हें बस इस बात से समझाया जा सकता है कि उस स्थिति में एक इंसान की तरह व्यवहार करने का लक्ष्य निर्धारित किया जाएगा।

इसलिए मैं वास्तव में सोचता हूं कि हम एआई के मामले में परेशानी में हैं, क्योंकि हमें खुद को ऐसी स्थिति में खोजने की संभावना नहीं है जहां हम जो देख रहे हैं उसके लिए यह स्पष्ट रूप से सबसे अच्छा स्पष्टीकरण है - कि एआई सचेत है। हमेशा प्रशंसनीय वैकल्पिक स्पष्टीकरण मौजूद रहेंगे। और इससे बाहर निकलना बहुत कठिन है।

यूडी: आप क्या सोचते हैं कि किसी ऐसी चीज के बीच अंतर करने के लिए हमारा सबसे अच्छा दांव क्या हो सकता है जो वास्तव में सचेत है बनाम एक ऐसी इकाई जिसके पास बस है दिखावट भावना का?

जेबी: मुझे लगता है कि पहला चरण इसे एक बहुत गहरी और कठिन समस्या के रूप में पहचानना है। दूसरा चरण अन्य जानवरों के मामले से जितना संभव हो उतना सीखने का प्रयास करना है। मुझे लगता है कि जब हम उन जानवरों का अध्ययन करते हैं जो विकासवादी दृष्टि से हमारे काफी करीब हैं, जैसे कि कुत्ते और अन्य स्तनधारी, तो हम हमेशा अनिश्चित रह जाते हैं कि क्या सचेत अनुभव बहुत विशिष्ट मस्तिष्क तंत्र पर निर्भर हो सकता है जो स्तनधारी मस्तिष्क के लिए विशिष्ट हैं।

इससे पार पाने के लिए, हमें जानवरों की यथासंभव विस्तृत श्रृंखला को देखने की आवश्यकता है। और हमें विशेष रूप से ऑक्टोपस और कीड़ों जैसे अकशेरुकी जीवों के बारे में सोचने की ज़रूरत है, जहां यह संभावित रूप से सचेतन अनुभव का एक और स्वतंत्र रूप से विकसित उदाहरण है। जिस तरह एक ऑक्टोपस की आंख हमारी अपनी आंखों से पूरी तरह से अलग विकसित हुई है - इसमें समानताएं और अंतर का यह आकर्षक मिश्रण है - मुझे लगता है कि इसके सचेत अनुभव भी उसी तरह होंगे: स्वतंत्र रूप से विकसित, कुछ मायनों में समान, अन्य तरीकों से बहुत, बहुत अलग।

और ऑक्टोपस जैसे अकशेरुकी जीवों के अनुभवों का अध्ययन करके, हम इस बात पर पकड़ बनाना शुरू कर सकते हैं कि सचेत अनुभवों का समर्थन करने के लिए मस्तिष्क में वास्तव में कौन सी गहरी विशेषताएं होनी चाहिए, ऐसी चीजें जो स्तनधारियों में मौजूद इन विशिष्ट मस्तिष्क संरचनाओं से कहीं अधिक गहराई तक जाती हैं। किस प्रकार की गणना की आवश्यकता है? किस प्रकार की प्रोसेसिंग?

तब—और मैं इसे दीर्घावधि के लिए एक रणनीति के रूप में देखता हूं—हम एआई मामले में वापस जा सकते हैं और कह सकते हैं, क्या इसमें वे विशेष प्रकार की गणनाएं हैं जो हम स्तनधारियों और ऑक्टोपस जैसे सचेत जानवरों में पाते हैं?

यूडी: क्या आपको विश्वास है कि हम एक दिन संवेदनशील एआई बनाएंगे?

जेबी: मैं इस पर लगभग 50:50 पर हूं। ऐसी संभावना है कि संवेदना जैविक मस्तिष्क की विशेष विशेषताओं पर निर्भर करती है, और यह स्पष्ट नहीं है कि इसका परीक्षण कैसे किया जाए। इसलिए मुझे लगता है कि एआई में हमेशा पर्याप्त अनिश्चितता रहेगी। मैं इस बारे में अधिक आश्वस्त हूं: यदि चेतना कर सकती है सिद्धांत में कंप्यूटर सॉफ्टवेयर में हासिल किया जा सकता है, तो एआई शोधकर्ता इसे करने का एक तरीका ढूंढ लेंगे।

छवि क्रेडिट: नकद मकानया / Unsplash 

समय टिकट:

से अधिक विलक्षणता हब