ब्लैक हैट 2023: 'टीनएज' एआई साइबर खतरे की खुफिया जानकारी के लिए पर्याप्त नहीं है

ब्लैक हैट 2023: 'टीनएज' एआई साइबर खतरे की खुफिया जानकारी के लिए पर्याप्त नहीं है

डिजिटल सुरक्षा, रैंसमवेयर, साइबर अपराध

वर्तमान एलएलएम उच्च-स्तरीय कार्यों के लिए पर्याप्त परिपक्व नहीं हैं

ब्लैक हैट 2023: 'टीनएज' एआई साइबर खतरे की खुफिया जानकारी के लिए पर्याप्त नहीं है

मध्यम से बड़ी कंपनियों की साइबर सुरक्षा टीमों के लिए 'साइबर खतरा इंटेलिजेंस' (सीटीआई) शब्द का उल्लेख करें और 'हम अवसर की जांच शुरू कर रहे हैं' शब्द अक्सर प्रतिक्रिया देते हैं। ये वही कंपनियाँ हैं जो अनुभवी, गुणवत्तापूर्ण साइबर सुरक्षा पेशेवरों की कमी से पीड़ित हो सकती हैं।

इस सप्ताह ब्लैक हैट में, Google क्लाउड टीम के दो सदस्यों ने प्रस्तुत किया कि बड़े भाषा मॉडल (एलएलएम) की क्षमताएं कैसी हैं, जैसे GPT-4 और हथेली साइबर सुरक्षा में भूमिका निभा सकता है, विशेष रूप से सीटीआई के क्षेत्र में, संभावित रूप से कुछ संसाधन मुद्दों का समाधान कर सकता है। ऐसा प्रतीत हो सकता है कि यह कई साइबर सुरक्षा टीमों के लिए भविष्य की अवधारणा को संबोधित कर रहा है क्योंकि वे अभी भी खतरे की खुफिया कार्यक्रम को लागू करने के अन्वेषण चरण में हैं; साथ ही, यह संसाधन संबंधी कुछ समस्या का समाधान भी कर सकता है।

संबंधित: ख़तरे की ख़ुफ़िया जानकारी और ख़तरनाक शिकार उपकरणों पर पहली नज़र

ख़तरे की ख़ुफ़िया जानकारी के मुख्य तत्व

तीन मुख्य तत्व हैं जिनकी एक खतरे की खुफिया कार्यक्रम को सफल होने के लिए आवश्यकता होती है: खतरे की दृश्यता, प्रसंस्करण क्षमता और व्याख्या क्षमता। एलएलएम का उपयोग करने का संभावित प्रभाव यह है कि यह प्रसंस्करण और व्याख्या में महत्वपूर्ण रूप से सहायता कर सकता है, उदाहरण के लिए, यह अतिरिक्त डेटा, जैसे लॉग डेटा, का विश्लेषण करने की अनुमति दे सकता है, जहां वॉल्यूम के कारण इसे अन्यथा अनदेखा करना पड़ सकता है। फिर व्यवसाय से सवालों के जवाब देने के लिए आउटपुट को स्वचालित करने की क्षमता साइबर सुरक्षा टीम से एक महत्वपूर्ण कार्य को हटा देती है।

प्रेजेंटेशन में इस विचार पर जोर दिया गया कि एलएलएम तकनीक हर मामले में उपयुक्त नहीं हो सकती है और सुझाव दिया गया है कि इसे उन कार्यों पर ध्यान केंद्रित किया जाना चाहिए जिनमें कम आलोचनात्मक सोच की आवश्यकता होती है और जहां बड़ी मात्रा में डेटा शामिल होता है, उन कार्यों को छोड़ देना चाहिए जिनमें अधिक आलोचनात्मक सोच की आवश्यकता होती है। मानव विशेषज्ञों की. एक उदाहरण का उपयोग उस मामले में किया गया था जहां दस्तावेजों को एट्रिब्यूशन के प्रयोजनों के लिए अनुवाद करने की आवश्यकता हो सकती है, एक महत्वपूर्ण बिंदु क्योंकि एट्रिब्यूशन में अशुद्धि व्यवसाय के लिए महत्वपूर्ण समस्याएं पैदा कर सकती है।

अन्य कार्यों की तरह, जिनके लिए साइबर सुरक्षा टीमें जिम्मेदार हैं, वर्तमान में, कम प्राथमिकता वाले और कम से कम महत्वपूर्ण कार्यों के लिए स्वचालन का उपयोग किया जाना चाहिए। यह अंतर्निहित प्रौद्योगिकी का प्रतिबिंब नहीं है, बल्कि यह एक बयान है कि एलएलएम प्रौद्योगिकी अपने विकास में कहां है। प्रेजेंटेशन से यह स्पष्ट था कि प्रौद्योगिकी का सीटीआई वर्कफ़्लो में एक स्थान है, लेकिन इस समय सही परिणाम देने के लिए पूरी तरह से भरोसा नहीं किया जा सकता है, और अधिक गंभीर परिस्थितियों में गलत या गलत प्रतिक्रिया एक महत्वपूर्ण समस्या का कारण बन सकती है। यह आम तौर पर एलएलएम के उपयोग में आम सहमति प्रतीत होती है; ऐसे कई उदाहरण हैं जहां उत्पन्न हुआ आउटपुट कुछ हद तक संदिग्ध है. ब्लैक हैट के एक मुख्य प्रस्तुतकर्ता ने एआई को उसके वर्तमान स्वरूप में वर्णित करते हुए इसे बिल्कुल सही करार दिया, "एक किशोर की तरह, यह बातें बनाता है, झूठ बोलता है और गलतियाँ करता है"।

संबंधित: क्या ChatGPT किलर मालवेयर लिखना शुरू कर देगा?

भविष्य?

मुझे यकीन है कि कुछ ही वर्षों में, हम एआई को ऐसे कार्य सौंप देंगे जो कुछ निर्णय लेने को स्वचालित कर देंगे, उदाहरण के लिए, फ़ायरवॉल नियमों को बदलना, कमजोरियों को प्राथमिकता देना और पैच करना, किसी कारण से सिस्टम को अक्षम करना स्वचालित करना धमकी, इत्यादि। अभी के लिए, हालांकि हमें इन निर्णयों को लेने के लिए मनुष्यों की विशेषज्ञता पर भरोसा करने की आवश्यकता है, और यह जरूरी है कि टीमें आगे न बढ़ें और साइबर सुरक्षा निर्णय लेने जैसी महत्वपूर्ण भूमिकाओं में प्रौद्योगिकी को लागू करें जो अपनी प्रारंभिक अवस्था में है।   

 

समय टिकट:

से अधिक हम सुरक्षा जीते हैं