कैसे DARPA विश्वास को शामिल करने के लिए AI के मूल सिद्धांतों पर पुनर्विचार करना चाहता है

कैसे DARPA विश्वास को शामिल करने के लिए AI के मूल सिद्धांतों पर पुनर्विचार करना चाहता है

कैसे DARPA ट्रस्ट प्लेटोब्लॉकचेन डेटा इंटेलिजेंस को शामिल करने के लिए AI के बुनियादी सिद्धांतों पर पुनर्विचार करना चाहता है। लंबवत खोज. ऐ.

टिप्पणी क्या आप अपने जीवन को एक कृत्रिम बुद्धि पर भरोसा करेंगे?

एआई की वर्तमान स्थिति प्रभावशाली है, लेकिन इसे आम तौर पर बुद्धिमान की सीमा के रूप में देखना एक अतिशयोक्ति है। यदि आप यह जानना चाहते हैं कि AI बूम कितनी अच्छी तरह चल रहा है, तो बस इस प्रश्न का उत्तर दें: क्या आप AI पर भरोसा करते हैं?

Google के बार्ड और Microsoft के चैटजीपीटी-संचालित बिंग बड़े भाषा मॉडल के छात्रों बनाया गया उनकी लॉन्च प्रस्तुतियों के दौरान अस्थि-पंजर वाली गलतियाँ जिन्हें एक त्वरित वेब खोज से टाला जा सकता था। एलएलएम भी देखे गए हैं तथ्यों को गलत प्राप्त करना और गलत उद्धरणों को बाहर करना।

सूचना नवप्रवर्तन कार्यालय के उप निदेशक, DARPA के मैट ट्यूरेक, बिंग या बार्ड उपयोगकर्ताओं के मनोरंजन के लिए, कहने के लिए, जब वे AI केवल जिम्मेदार हों, तो यह एक बात है। यह पूरी तरह से एक और बात है जब जीवन लाइन पर होता है, यही वजह है कि ट्यूरेक की एजेंसी ने एआई फॉरवर्ड नामक एक पहल शुरू की है, इस सवाल का जवाब देने की कोशिश करने के लिए कि एआई सिस्टम बनाने का वास्तव में क्या मतलब है जिस पर हम भरोसा कर सकते हैं।

भरोसा है...?

के साथ एक साक्षात्कार में रजिस्टर, ट्यूरेक ने कहा कि वह एक सिविल इंजीनियरिंग रूपक के साथ भरोसेमंद एआई के निर्माण के बारे में सोचना पसंद करते हैं जिसमें प्रौद्योगिकी में बहुत अधिक भरोसा करना शामिल है: पुलों का निर्माण।

ट्यूरेक कहते हैं, "अब हम परीक्षण और त्रुटि से पुलों का निर्माण नहीं करते हैं।" "हम मूलभूत भौतिकी, मूलभूत भौतिक विज्ञान, कहने के लिए सिस्टम इंजीनियरिंग को समझते हैं, मुझे इस दूरी को पार करने में सक्षम होना चाहिए और इस प्रकार का वजन उठाने की आवश्यकता है," वे कहते हैं।

उस ज्ञान से लैस, ट्यूरेक कहते हैं, इंजीनियरिंग क्षेत्र ऐसे मानकों को विकसित करने में सक्षम था जो पुलों के निर्माण को सीधा और अनुमानित बनाते हैं, लेकिन अभी हमारे पास एआई के साथ ऐसा नहीं है। वास्तव में, हम मानकों के न होने से भी बदतर स्थिति में हैं: हमारे द्वारा बनाए जा रहे एआई मॉडल कभी-कभी हमें आश्चर्यचकित करते हैं, और यह बुरा है, ट्यूरेक कहते हैं। 

"हम मॉडलों को पूरी तरह से नहीं समझते हैं। हम यह नहीं समझते हैं कि वे क्या अच्छा करते हैं, हम कोने के मामलों, विफलता के तरीकों को नहीं समझते हैं ... जो कुछ भी हो सकता है वह गति और पैमाने पर गलत हो रहा है जिसे हमने पहले नहीं देखा है। 

रेग पाठकों को अपोकैल्पिक परिदृश्यों की कल्पना करने की आवश्यकता नहीं है जिसमें एक कृत्रिम सामान्य बुद्धि (एजीआई) मनुष्यों को मारना शुरू कर देती है और ट्यूरेक के बिंदु को प्राप्त करने के लिए युद्ध छेड़ती है। ट्यूरेक कहते हैं, "चीजों के गंभीर रूप से गलत होने के लिए हमें एजीआई की आवश्यकता नहीं है।" वह फ्लैश मार्केट क्रैश का हवाला देता है, जैसे कि ब्रिटिश पाउंड में 2016 की गिरावट को जिम्मेदार ठहराया खराब एल्गोरिथम निर्णय लेना, एक उदाहरण के रूप में। 

फिर टेस्ला के ऑटोपायलट जैसे सॉफ्टवेयर हैं, जाहिरा तौर पर एआई को एक कार चलाने के लिए डिज़ाइन किया गया है जो कथित रूप से जुड़ा हुआ है 70 प्रतिशत स्वचालित चालक सहायता प्रौद्योगिकी से जुड़ी दुर्घटनाओं की संख्या। जब ऐसी दुर्घटनाएँ होती हैं, तो टेस्ला एआई को दोष नहीं देता है, ट्यूरेक हमें बताता है, यह कहता है कि ऑटोपायलट क्या करता है इसके लिए ड्राइवर जिम्मेदार हैं। 

तर्क की उस पंक्ति से, यह कहना उचित है कि टेस्ला को भी अपने एआई पर भरोसा नहीं है। 

कैसे DARPA AI को आगे बढ़ाना चाहता है ... आगे

ट्यूरेक कहते हैं, "जिस गति से बड़े पैमाने पर सॉफ्टवेयर सिस्टम काम कर सकते हैं, वह मानव निरीक्षण के लिए चुनौतियां पैदा कर सकता है।" इस साल के शुरू.

में प्रदर्शन फरवरी में, ट्यूरेक के बॉस, डॉ कैथलीन फिशर ने समझाया कि DARPA एआई फॉरवर्ड के साथ क्या हासिल करना चाहता है, अर्थात् एआई विकास के लिए समझ के उस आधार का निर्माण करना जो इंजीनियरों ने अपने स्वयं के मानकों के सेट के साथ विकसित किया है।

फिशर ने अपनी प्रस्तुति में समझाया कि DARPA एआई ट्रस्ट को एकीकृत होने के रूप में देखता है, और यह कि किसी के विश्वास को रखने लायक कोई भी एआई तीन काम करने में सक्षम होना चाहिए:

  • सक्षमता से संचालन कर रहे हैं, जिसे हम निश्चित रूप से अभी तक पता नहीं चला,
  • मनुष्यों के साथ उचित रूप से बातचीत करना, यह संचार करना शामिल है कि यह जो करता है वह क्यों करता है (पिछला बिंदु देखें कि यह कितना अच्छा चल रहा है),
  • नैतिक और नैतिक रूप से व्यवहार करना, जिसके बारे में फिशर कहते हैं, इसमें यह निर्धारित करने में सक्षम होना शामिल है कि निर्देश नैतिक हैं या नहीं, और तदनुसार प्रतिक्रिया करना। 

भरोसेमंद एआई को परिभाषित करना एक बात है। वहां पहुंचना काफी अधिक काम है। उस अंत तक, DARPA ने कहा कि वह अपनी ऊर्जा, समय और धन का निवेश करने की योजना बना रहा है तीन क्षेत्र: मूलभूत सिद्धांतों का निर्माण, उचित एआई इंजीनियरिंग प्रथाओं को स्पष्ट करना और मानव-एआई टीमिंग और इंटरैक्शन के लिए मानकों का विकास करना। 

एआई फॉरवर्ड, जिसे ट्यूरेक एक कार्यक्रम के रूप में कम और एक समुदाय आउटरीच पहल के रूप में वर्णित करता है, जून और जुलाई के अंत में ग्रीष्मकालीन कार्यशालाओं की एक जोड़ी के साथ सार्वजनिक और निजी क्षेत्रों से लोगों को एक साथ लाने के लिए किक मार रहा है ताकि उन तीन एआई निवेशों को दूर करने में मदद मिल सके। क्षेत्रों। 

ट्यूरेक का कहना है कि डीएआरपीए में कई समुदायों में शोधकर्ताओं की एक विस्तृत श्रृंखला को [एक साथ] लाने, समस्या पर एक समग्र नज़र डालने, आगे बढ़ने के लिए ... सम्मोहक तरीकों की पहचान करने, और उसके बाद निवेश के साथ उसका पालन करने की एक अनूठी क्षमता है, जो डीएआरपीए को लगता है कि नेतृत्व कर सकता है। परिवर्तनकारी प्रौद्योगिकियों की ओर।

पहले दो एआई फॉरवर्ड कार्यशालाओं में भाग लेने के लिए रिंग में अपनी टोपी उछालने की उम्मीद करने वाले किसी के लिए - क्षमा करें - वे पहले से ही भरे हुए हैं। ट्यूरेक ने इस बारे में कोई विशेष खुलासा नहीं किया कि वहां कौन जा रहा था, केवल यह कह रहा था कि "तकनीकी पृष्ठभूमि [और] दृष्टिकोणों की विविधता" के साथ कई सौ प्रतिभागियों की उम्मीद है।

भरोसेमंद रक्षा एआई कैसा दिखता है?

यदि और जब DARPA अपने AI ट्रस्ट के मॉडल को विकसित करने में सफल होता है, तो वह वास्तव में उस तकनीक का उपयोग कैसे करेगा? 

साइबर सुरक्षा अनुप्रयोग स्पष्ट हैं, ट्यूरेक कहते हैं, एक भरोसेमंद एआई के रूप में बड़े पैमाने पर सही निर्णय लेने के लिए भरोसा किया जा सकता है और जिस गति से मनुष्य कार्य नहीं कर सकता है। ट्यूरेक कहते हैं, "बड़ी भाषा मॉडल की ओर से, एआई का निर्माण किया जा सकता है, जिस पर वर्गीकृत जानकारी को ठीक से संभालने के लिए भरोसा किया जा सकता है, या सटीक तरीके से रिपोर्ट को पचाने और सारांशित करने के लिए भरोसा किया जा सकता है।"

और फिर युद्ध का मैदान है। केवल नुकसान पहुँचाने के लिए इस्तेमाल किए जाने वाले उपकरण से दूर, एआई को अनुसंधान पहलों के माध्यम से जीवन रक्षक अनुप्रयोगों में बदल दिया जा सकता है पल में, एक अनुसंधान परियोजना ट्यूरेक कठिन परिस्थितियों में तेजी से निर्णय लेने का समर्थन करती है। 

इन द मोमेंट का लक्ष्य "गतिशील सेटिंग्स में विश्वसनीय मानव निर्णय लेने में अंतर्निहित प्रमुख विशेषताओं और कम्प्यूटेशनल रूप से उन विशेषताओं का प्रतिनिधित्व करना" की पहचान करना है, जैसा कि DARPA ने परियोजना के पृष्ठ पर इसका वर्णन किया है। 

ट्यूरेक कहते हैं, "[इन द मोमेंट] वास्तव में एक मौलिक शोध कार्यक्रम है कि आप कैसे मॉडल बनाते हैं और विश्वास की मात्रा निर्धारित करते हैं और आप उन विशेषताओं का निर्माण कैसे करते हैं जो विश्वास और सिस्टम में ले जाती हैं।"

उन क्षमताओं से लैस एआई का उपयोग युद्ध के मैदान में या आपदा परिदृश्यों में मेडिकल ट्राइएज निर्णय लेने के लिए किया जा सकता है।

DARPA चाहता है कि श्वेत पत्र इस गर्मी में उसकी दोनों AI फॉरवर्ड मीटिंग्स का पालन करें, लेकिन वहाँ से यह परिभाषा के चरण को पार करने और वास्तविकता की ओर जाने की बात है, जिसमें निश्चित रूप से कुछ समय लग सकता है। 

ट्यूरेक हमें बताता है, "बैठकों से निकलने वाले डीएआरपीए से निवेश होंगे।" "उन निवेशों की संख्या या आकार हम जो सुनते हैं उस पर निर्भर करने जा रहे हैं," उन्होंने आगे कहा। ®

समय टिकट:

से अधिक रजिस्टर