होली एल्मोर ने ओपन-सोर्स सुरक्षा पर विरोध का नेतृत्व किया

होली एल्मोर ने ओपन-सोर्स सुरक्षा पर विरोध का नेतृत्व किया

होली एल्मोर ने ओपन-सोर्स सुरक्षा प्लेटोब्लॉकचेन डेटा इंटेलिजेंस पर विरोध का नेतृत्व किया। लंबवत खोज. ऐ.

ओपन-सोर्स आर्टिफिशियल इंटेलिजेंस (एआई) पर मेटा के हालिया रुख के खिलाफ एक साहसिक कदम में, एआई सुरक्षा अधिवक्ता होली एल्मोर ने मेटा के सैन फ्रांसिस्को बेस के बाहर एक प्रदर्शन का नेतृत्व किया।

विवाद का केंद्र शक्तिशाली एआई मॉडल भार को स्वतंत्र रूप से जारी करने के संभावित खतरों में निहित है, जिसके बारे में एल्मोर और उनके समर्थकों का तर्क है कि इससे "अपरिवर्तनीय प्रसार" जोखिम हो सकता है।

मेटा ने इस साल की शुरुआत में तकनीकी जगत में हलचल मचा दी थी को रिहा एआई शोधकर्ताओं के लिए मॉडलों के अपने एलएलएएमए परिवार का महत्व, एक निर्णय जो अन्य तकनीकी दिग्गजों की नीतियों से काफी अलग है। मॉडल के कार्य के लिए महत्वपूर्ण इन वज़न को विशेषज्ञों के हाथों में एक बार हेरफेर और संशोधित किया जा सकता है, जिससे दुरुपयोग पर चिंताएं बढ़ जाती हैं। दरअसल, इन वजनों को बनने में ज्यादा समय नहीं लगा लीक ऑनलाइन, मेटा के ओपन-सोर्स दृष्टिकोण की आलोचना तेज हो गई है।

वजन कम करने के जोखिम

एल्मोर, जो कभी थिंक टैंक रीथिंक प्रायोरिटीज़ से जुड़ी थीं, ने अपनी चिंताएँ व्यक्त कीं:

"वज़न जारी करना एक खतरनाक नीति है क्योंकि मॉडल को कोई भी संशोधित कर सकता है और उसे वापस नहीं लिया जा सकता है।"

उन्होंने बढ़ते खतरे पर जोर दिया क्योंकि मॉडल अधिक उन्नत और शक्तिशाली हो गए हैं। जब मॉडल वेट खुले तौर पर उपलब्ध होते हैं, तो उनका उपयोग संभावित रूप से दुर्भावनापूर्ण गतिविधियों के लिए किया जा सकता है, जिसमें फ़िशिंग योजनाएं बनाने से लेकर योजना बनाने तक शामिल हैं साइबर हमले. एल्मोर चेतावनी देते हैं कि एक बार वजन हाथ में आ जाने के बाद सुरक्षा रेलिंग को दरकिनार करना एक परेशान करने वाली आसानी है।

एमआईटी के पीटर एस. पार्क इन भावनाओं को प्रतिध्वनित करते हैं। वह खतरों के बारे में चेतावनी देते हैं यदि वर्तमान ओपन-सोर्स दृष्टिकोण को अधिक उन्नत एआई पर ले जाया जाता है, जो उच्च स्वायत्तता के साथ काम कर सकता है, इस प्रकार बड़े और अधिक हानिकारक पैमाने पर दुरुपयोग को सक्षम कर सकता है।

एक प्रतिवाद: खुला स्रोत बचाव

स्टेला बिडरमैन हालाँकि, EleutherAI एक अलग दृष्टिकोण प्रस्तुत करता है। बिडरमैन तत्काल धारणा पर सवाल उठाते हैं कि मॉडल वजन जारी करना सीधे तौर पर संभावित दुरुपयोग से संबंधित है। उनका मानना ​​है कि सामूहिक विनाश के हथियारों से जुड़ा शब्द "प्रसार" एआई संदर्भ में भ्रामक है। यह तर्क देते हुए कि बड़े भाषा मॉडल के निर्माण के लिए बुनियादी तत्व पहले से ही खुले में हैं, बिडरमैन का मानना ​​​​है कि संभावित दुरुपयोग के लिए गोपनीयता रामबाण नहीं हो सकती है।

वह कहती हैं कि कंपनियों से अपने मॉडलों के बारे में गोपनीयता बनाए रखने का आग्रह करने से "पारदर्शिता, सार्वजनिक जागरूकता और विज्ञान के लिए गंभीर नकारात्मक परिणाम हो सकते हैं।" ऐसी नीति संभावित खतरों से सुरक्षा की तुलना में अनजाने में स्वतंत्र शोधकर्ताओं और उत्साही लोगों को अधिक नुकसान पहुंचा सकती है।

एआई में ओपन-सोर्स जल को नेविगेट करना

अवधि 'खुले स्रोत'एआई क्षेत्र में गड़बड़ है। जैसा कि ओपन सोर्स इनिशिएटिव (ओएसआई) के स्टेफ़ानो माफ़ुली बताते हैं, अलग-अलग संगठनों ने इस शब्द को अपना लिया है, जिससे एआई में वास्तव में इसका क्या अर्थ है, इसकी अस्पष्ट समझ पैदा हो गई है। सॉफ़्टवेयर को वास्तव में ओपन-सोर्स बनाने के लिए, इसके सभी घटक, स्रोत कोड से लेकर प्रशिक्षण डेटा तक, सार्वजनिक रूप से सुलभ और पुन: प्रयोज्य होने चाहिए।

ओपन-सोर्स एआई का भविष्य अभी भी आकार लिया जा रहा है, ओएसआई सक्रिय रूप से इसके मापदंडों को परिभाषित करने की कोशिश कर रहा है। माफफुल्ली एक खुले दृष्टिकोण के महत्व पर अड़े हुए हैं, उन्होंने इस बात पर जोर दिया कि एआई केवल "भरोसेमंद, जिम्मेदार और जवाबदेह" हो सकता है यदि यह ओपन-सोर्स सिद्धांतों के साथ संरेखित हो।

हालांकि ओपन-सोर्स एआई पर बहस अभी सुलझी नहीं है, एक बात स्पष्ट है: प्रौद्योगिकी की तीव्र प्रगति पहुंच और सुरक्षा के बीच सावधानीपूर्वक संतुलन की मांग करती है। जैसे-जैसे मेटा जैसी कंपनियां अपनी नीतियों के साथ आगे बढ़ रही हैं, तकनीकी समुदाय और जनता ओपन-सोर्स एआई की चुनौतियों और निहितार्थों से जूझती रहेगी।

समय टिकट:

से अधिक मेटान्यूज