चैटजीपीटी जैसे एलएलएम लगातार संवेदनशील डेटा लीक करते हैं

चैटजीपीटी जैसे एलएलएम लगातार संवेदनशील डेटा लीक करते हैं

LLMs Like ChatGPT Persistently Leak Sensitive Data PlatoBlockchain Data Intelligence. Vertical Search. Ai.

एक अग्रणी अध्ययन में, उत्तरी कैरोलिना विश्वविद्यालय, चैपल हिल की एक टीम ने ओपनएआई के चैटजीपीटी और गूगल के बार्ड जैसे बड़े भाषा मॉडल (एलएलएम) में डेटा प्रतिधारण के महत्वपूर्ण मुद्दे पर प्रकाश डाला है।

हटाने के प्रयासों के बावजूद, इन एआई मॉडल की पेचीदगियाँ फिर से सामने आ रही हैं संवेदनशील डेटा, सूचना सुरक्षा और एआई नैतिकता पर एक गंभीर बातचीत को बढ़ावा देना।

'अनडिलीटेबल' डेटा पहेली

शोधकर्ताओं ने एलएलएम से संवेदनशील जानकारी के उन्मूलन की जांच करने के लिए एक खोज शुरू की। हालाँकि, उन्हें एक रहस्योद्घाटन हुआ। ऐसे डेटा को हटाना कठिन है, लेकिन हटाए जाने की पुष्टि करना भी उतनी ही चुनौती है। एक बार विस्तृत डेटासेट पर प्रशिक्षित होने के बाद, ये एआई दिग्गज पैरामीटर और वजन के अपने जटिल चक्रव्यूह के भीतर डेटा को सुरक्षित रखते हैं।

यह परिस्थिति तब अशुभ हो जाती है जब एआई मॉडल व्यक्तिगत पहचानकर्ता या वित्तीय रिकॉर्ड जैसे संवेदनशील डेटा को अनजाने में फैलाना, संभावित रूप से नापाक उपयोग के लिए आधार तैयार करना।

इसके अलावा, मुद्दे का मूल इन मॉडलों के डिज़ाइन ब्लूप्रिंट में निहित है। प्रारंभिक चरण में सुसंगत आउटपुट सुनिश्चित करने के लिए विशाल डेटाबेस पर प्रशिक्षण और फाइन-ट्यूनिंग शामिल है। जीपीटी में समाहित शब्दावली "जेनरेटिव प्रीट्रेंड ट्रांसफार्मर", इस तंत्र की एक झलक पेश करती है।

यूएनसी विद्वानों ने एक काल्पनिक परिदृश्य को स्पष्ट किया जहां एक एलएलएम, संवेदनशील बैंकिंग डेटा के ढेर पर दावत देकर, एक संभावित खतरा बन जाता है। एआई डेवलपर्स द्वारा नियोजित समकालीन रेलिंग इस चिंता को दूर करने में विफल हैं।

ये सुरक्षात्मक उपाय, जैसे हार्ड-कोडित संकेत या मानव प्रतिक्रिया (आरएलएचएफ) से सुदृढीकरण सीखने के रूप में जाना जाने वाला प्रतिमान, अवांछनीय आउटपुट को रोकने में महत्वपूर्ण भूमिका निभाते हैं। हालाँकि, वे अभी भी डेटा को मॉडल की गहराई में छुपा कर छोड़ देते हैं, जो केवल एक संकेत के पुनर्लेखन के साथ बुलाए जाने के लिए तैयार होता है।

सुरक्षा अंतर को पाटना

रैंक-वन मॉडल एडिटिंग जैसे अत्याधुनिक मॉडल संपादन तरीकों को तैनात करने के बावजूद, यूएनसी टीम ने पाया कि पर्याप्त तथ्यात्मक जानकारी सुलभ बनी हुई है। उनके निष्कर्षों से पता चला कि व्हाइटबॉक्स और ब्लैकबॉक्स हमलों के माध्यम से क्रमशः 38% और 29% मामलों में तथ्यों को पुनर्जीवित किया जा सकता है।

अपनी खोज में, शोधकर्ताओं ने GPT-J नामक एक मॉडल का उपयोग किया। अपने 6 बिलियन मापदंडों के साथ, यह विशाल GPT-3.5 की तुलना में बौना है चैटजीपीटी के लिए बेस मॉडल 170 बिलियन मापदंडों के साथ। यह स्पष्ट विरोधाभास जीपीटी-3.5 जैसे बड़े मॉडलों को अनावश्यक डेटा से स्वच्छ करने की बड़ी चुनौती की ओर संकेत करता है।

इसके अलावा, यूएनसी विद्वानों ने एलएलएम को विशिष्ट "निष्कर्षण हमलों" से बचाने के लिए नई रक्षा पद्धतियां तैयार कीं। ये नापाक योजनाएं संवेदनशील डेटा हासिल करने के लिए मॉडल की रेलिंग का फायदा उठाती हैं। बहरहाल, अखबार ने बिल्ली और चूहे के एक सतत खेल की ओर अशुभ संकेत दिया, जहां रक्षात्मक रणनीतियाँ हमेशा विकसित हो रही आक्रामक रणनीति का पीछा करेंगी।

माइक्रोसॉफ्ट ने एआई को बढ़ावा देने के लिए एक परमाणु टीम सौंपी है

संबंधित नोट पर, एआई के बढ़ते दायरे ने माइक्रोसॉफ्ट जैसे तकनीकी दिग्गजों को अज्ञात क्षेत्रों में उद्यम करने के लिए प्रेरित किया है। एआई पहल को बढ़ावा देने के लिए माइक्रोसॉफ्ट द्वारा हाल ही में एक परमाणु ऊर्जा टीम का गठन बढ़ती मांगों और एआई और ऊर्जा संसाधनों के परस्पर जुड़े भविष्य को रेखांकित करता है। जैसे-जैसे एआई मॉडल विकसित होते हैं, ऊर्जा के प्रति उनकी भूख बढ़ती है, जिससे इस बढ़ती मांग को पूरा करने के लिए नवीन समाधानों का मार्ग प्रशस्त होता है।

एलएलएम में डेटा प्रतिधारण और विलोपन के आसपास की चर्चा अकादमिक गलियारों से परे है। यह एक मजबूत ढांचे को बढ़ावा देने के लिए एक गहन जांच और एक उद्योग-व्यापी बातचीत का सुझाव देता है जो एआई की वृद्धि और क्षमता का पोषण करते हुए डेटा सुरक्षा सुनिश्चित करता है।

यूएनसी शोधकर्ताओं का यह उद्यम 'अनडिलीटेबल' डेटा समस्या को समझने और अंततः हल करने की दिशा में एक महत्वपूर्ण कदम है, जो डिजिटल युग में एआई को एक सुरक्षित उपकरण बनाने के करीब एक कदम है।

समय टिकट:

से अधिक मेटान्यूज