क्या आपके कोड को ठीक करने के लिए जेनरेटिव एआई पर भरोसा किया जा सकता है?

क्या आपके कोड को ठीक करने के लिए जेनरेटिव एआई पर भरोसा किया जा सकता है?

क्या आपके कोड को ठीक करने के लिए जेनरेटिव एआई पर भरोसा किया जा सकता है? प्लेटोब्लॉकचेन डेटा इंटेलिजेंस। लंबवत खोज. ऐ.

दुनिया भर के संगठन अपने साइबर सुरक्षा कार्यक्रमों और उपकरणों में एआई प्रौद्योगिकियों को अपनाने की होड़ में हैं। ए डेवलपर्स का बहुमत (65%) उपयोग करना या योजना बनाना परीक्षण प्रयासों में AI का उपयोग करना अगले तीन वर्षों में. ऐसे कई सुरक्षा अनुप्रयोग हैं जो जेनरेटिव एआई से लाभान्वित होंगे, लेकिन क्या कोड को ठीक करना उनमें से एक है?

कई DevSecOps टीमों के लिए, जेनरेटिव AI उनकी बढ़ती भेद्यता बैकलॉग को साफ़ करने के लिए पवित्र कब्र का प्रतिनिधित्व करता है। आधे से अधिक (66%) संगठनों का कहना है कि उनके बैकलॉग में 100,000 से अधिक कमजोरियाँ शामिल हैं, और दो-तिहाई से अधिक स्थैतिक अनुप्रयोग सुरक्षा परीक्षण (एसएएसटी) रिपोर्ट किए गए निष्कर्ष पता लगाने के तीन महीने बाद भी खुले रहते हैं। 50 दिनों के बाद 363% खुला शेष. सपना यह है कि एक डेवलपर चैटजीपीटी से "इस भेद्यता को ठीक करने" के लिए कह सकता है, और कमजोरियों को दूर करने में पहले बिताए गए घंटे और दिन अतीत की बात हो जाएंगे।

सिद्धांत रूप में, यह पूरी तरह से एक पागलपन भरा विचार नहीं है। आख़िरकार, प्रक्रियाओं को स्वचालित करने और समय बचाने के लिए वर्षों से साइबर सुरक्षा उपकरणों में मशीन लर्निंग का प्रभावी ढंग से उपयोग किया गया है - सरल, दोहराव वाले कार्यों पर लागू होने पर एआई बेहद फायदेमंद है। लेकिन जटिल कोड अनुप्रयोगों में जेनरेटिव एआई लागू करने में व्यवहार में कुछ खामियां हैं। मानवीय निरीक्षण और एक्सप्रेस कमांड के बिना, DevSecOps टीमें हल करने की तुलना में अधिक समस्याएं पैदा कर सकती हैं।

फिक्सिंग कोड से संबंधित जेनरेटिव एआई लाभ और सीमाएं

एआई उपकरण सरल, कम जोखिम वाले साइबर सुरक्षा विश्लेषण, निगरानी या यहां तक ​​कि उपचारात्मक आवश्यकताओं के लिए अविश्वसनीय रूप से शक्तिशाली उपकरण हो सकते हैं। चिंता तब पैदा होती है जब दांव परिणामी हो जाते हैं। यह अंततः विश्वास का मुद्दा है।

शोधकर्ता और डेवलपर्स अभी भी नई जेनेरिक एआई तकनीक की क्षमताओं का निर्धारण कर रहे हैं जटिल कोड सुधार उत्पन्न करें. निर्णय लेने के लिए जेनरेटिव एआई मौजूदा, उपलब्ध जानकारी पर निर्भर करता है। यह एक भाषा से दूसरी भाषा में कोड का अनुवाद करने, या प्रसिद्ध खामियों को ठीक करने जैसी चीजों के लिए सहायक हो सकता है। उदाहरण के लिए, यदि आप चैटजीपीटी से "इस जावास्क्रिप्ट कोड को पायथन में लिखने" के लिए कहते हैं, तो आपको एक अच्छा परिणाम मिलने की संभावना है। क्लाउड सुरक्षा कॉन्फ़िगरेशन को ठीक करने के लिए इसका उपयोग करना सहायक होगा क्योंकि ऐसा करने के लिए प्रासंगिक दस्तावेज़ सार्वजनिक रूप से उपलब्ध है और आसानी से मिल जाता है, और एआई सरल निर्देशों का पालन कर सकता है।

हालाँकि, अधिकांश कोड कमजोरियों को ठीक करने के लिए परिस्थितियों और विवरणों के एक अनूठे सेट पर कार्य करने की आवश्यकता होती है, जिससे एआई को नेविगेट करने के लिए अधिक जटिल परिदृश्य पेश किया जा सके। एआई एक "फिक्स" प्रदान कर सकता है, लेकिन सत्यापन के बिना, इस पर भरोसा नहीं किया जाना चाहिए। परिभाषा के अनुसार, जेनरेटिव एआई कुछ ऐसा नहीं बना सकता है जो पहले से ज्ञात न हो, और यह मतिभ्रम का अनुभव कर सकता है जिसके परिणामस्वरूप नकली आउटपुट हो सकते हैं।

एक हालिया उदाहरण में, एक वकील को अदालती फाइलिंग लिखने में मदद करने के लिए चैटजीपीटी का उपयोग करने के बाद गंभीर परिणामों का सामना करना पड़ रहा है, जिसमें एआई उपकरण द्वारा आविष्कार किए गए छह गैर-मौजूद मामलों का हवाला दिया गया है। यदि एआई उन तरीकों को मतिभ्रम करता है जो मौजूद नहीं हैं और फिर उन तरीकों को कोड लिखने के लिए लागू करता है, तो इसके परिणामस्वरूप "फिक्स" पर समय बर्बाद होगा जिसे संकलित नहीं किया जा सकता है। इसके अतिरिक्त, OpenAI के अनुसार GPT-4 श्वेतपत्र, नए कारनामे, जेलब्रेक और उभरते व्यवहार समय के साथ खोजे जाएंगे और उन्हें रोकना मुश्किल होगा। इसलिए यह सुनिश्चित करने के लिए सावधानीपूर्वक विचार करने की आवश्यकता है कि एआई सुरक्षा उपकरण और तृतीय-पक्ष समाधानों की जांच की जाती है और नियमित रूप से अपडेट किया जाता है ताकि यह सुनिश्चित किया जा सके कि वे सिस्टम में अनपेक्षित बैकडोर न बनें।

भरोसा करें या न करें?

शून्य-विश्वास आंदोलन के चरम पर जेनेरिक एआई को तेजी से अपनाते हुए देखना एक दिलचस्प गतिशीलता है। अधिकांश साइबर सुरक्षा उपकरण इस विचार पर बनाए गए हैं कि संगठनों को कभी भी भरोसा नहीं करना चाहिए, हमेशा सत्यापित करना चाहिए। जेनरेटिव एआई ज्ञात और अज्ञात स्रोतों द्वारा उपलब्ध कराई गई जानकारी में अंतर्निहित विश्वास के सिद्धांत पर बनाया गया है। सिद्धांतों में यह टकराव सुरक्षा और उत्पादकता के बीच सही संतुलन खोजने में संगठनों द्वारा सामना किए जाने वाले निरंतर संघर्ष के लिए एक उपयुक्त रूपक की तरह प्रतीत होता है, जो इस समय विशेष रूप से बढ़ा हुआ महसूस होता है।

हालाँकि जेनरेटिव AI अभी तक वह पवित्र कब्र नहीं हो सकती है जिसकी DevSecOps टीमें उम्मीद कर रही थीं, यह भेद्यता बैकलॉग को कम करने में वृद्धिशील प्रगति करने में मदद करेगी। अभी के लिए, इसे सरल सुधार करने के लिए लागू किया जा सकता है। अधिक जटिल सुधारों के लिए, उन्हें सत्यापन-से-विश्वास पद्धति अपनाने की आवश्यकता होगी जो कोड लिखने वाले और उसके मालिक होने वाले डेवलपर्स के ज्ञान द्वारा निर्देशित एआई की शक्ति का उपयोग करती है।

समय टिकट:

से अधिक डार्क रीडिंग