آیا می توان به هوش مصنوعی مولد برای اصلاح کد شما اعتماد کرد؟

آیا می توان به هوش مصنوعی مولد برای اصلاح کد شما اعتماد کرد؟

آیا می توان به هوش مصنوعی مولد برای اصلاح کد شما اعتماد کرد؟ هوش داده PlatoBlockchain. جستجوی عمودی Ai.

سازمان‌ها در سراسر جهان در حال رقابت برای استفاده از فناوری‌های هوش مصنوعی در برنامه‌ها و ابزارهای امنیت سایبری خود هستند. آ اکثریت (65٪) از توسعه دهندگان استفاده کنید یا برنامه ریزی کنید استفاده از هوش مصنوعی در تلاش‌های آزمایشی در سه سال آینده برنامه های امنیتی بسیاری وجود دارند که از هوش مصنوعی مولد بهره مند خواهند شد، اما آیا رفع کد یکی از آنهاست؟

برای بسیاری از تیم‌های DevSecOps، هوش مصنوعی مولد نشان دهنده جام مقدس برای پاک کردن انحرافات آسیب‌پذیری فزاینده آنها است. بیش از نیمی (66%) سازمان‌ها می‌گویند که بک لاگ‌های آنها از بیش از 100,000 آسیب‌پذیری تشکیل شده است و بیش از دو سوم یافته‌های گزارش شده از تست امنیت برنامه‌های استاتیک (SAST) سه ماه پس از شناسایی باز می‌مانند. 50% پس از 363 روز باز می ماند. رویا این است که یک توسعه‌دهنده می‌تواند به سادگی از ChatGPT بخواهد که این آسیب‌پذیری را برطرف کند، و ساعت‌ها و روزهایی که قبلاً صرف رفع آسیب‌پذیری‌ها می‌شد، متعلق به گذشته خواهد بود.

از نظر تئوری، این یک ایده کاملا دیوانه کننده نیست. از این گذشته، یادگیری ماشینی سال ها به طور موثر در ابزارهای امنیت سایبری برای خودکارسازی فرآیندها و صرفه جویی در زمان استفاده شده است – هوش مصنوعی زمانی که برای کارهای ساده و تکراری به کار می رود بسیار سودمند است. اما استفاده از هوش مصنوعی مولد در برنامه‌های کد پیچیده، در عمل دارای اشکالاتی است. بدون نظارت انسانی و دستور اکسپرس، تیم‌های DevSecOps می‌توانند بیشتر از آنچه که حل کنند، مشکلاتی ایجاد کنند.

مزایا و محدودیت‌های هوش مصنوعی مرتبط با کد رفع اشکال

ابزارهای هوش مصنوعی می توانند ابزارهای فوق العاده قدرتمندی برای تجزیه و تحلیل امنیت سایبری ساده و کم خطر، نظارت یا حتی نیازهای اصلاحی باشند. نگرانی زمانی به وجود می آید که ریسک ها نتیجه ای می گیرند. این در نهایت یک مسئله اعتماد است.

محققان و توسعه دهندگان هنوز در حال تعیین قابلیت های فناوری جدید هوش مصنوعی مولد هستند ایجاد اصلاحات کد پیچیده. هوش مصنوعی مولد برای تصمیم گیری به اطلاعات موجود و موجود متکی است. این می تواند برای مواردی مانند ترجمه کد از یک زبان به زبان دیگر یا رفع نقص های شناخته شده مفید باشد. برای مثال، اگر از ChatGPT بخواهید «این کد جاوا اسکریپت را در پایتون بنویسد»، احتمالاً نتیجه خوبی خواهید گرفت. استفاده از آن برای تعمیر پیکربندی امنیت ابری مفید خواهد بود زیرا اسناد مربوطه برای انجام این کار در دسترس عموم است و به راحتی یافت می شود و هوش مصنوعی می تواند دستورالعمل های ساده را دنبال کند.

با این حال، رفع بیشتر آسیب‌پذیری‌های کد مستلزم اقدام بر روی مجموعه‌ای از شرایط و جزئیات منحصربه‌فرد است و سناریوی پیچیده‌تری برای حرکت هوش مصنوعی ارائه می‌کند. هوش مصنوعی ممکن است یک "اصلاح" ارائه دهد، اما بدون تأیید، نباید به آن اعتماد کرد. هوش مصنوعی مولد، طبق تعریف، نمی‌تواند چیزی را ایجاد کند که قبلاً شناخته شده نیست، و می‌تواند توهماتی را تجربه کند که منجر به خروجی‌های جعلی می‌شود.

در یک مثال اخیر، یک وکیل پس از استفاده از ChatGPT برای کمک به نوشتن پرونده های دادگاهی که شش مورد غیرموجود را که ابزار هوش مصنوعی ابداع کرده است، ذکر کرده است، با عواقب جدی مواجه شده است. اگر هوش مصنوعی روش‌هایی را که وجود ندارند توهم می‌کند و سپس آن روش‌ها را برای نوشتن کد به کار می‌برد، منجر به اتلاف زمان برای یک «رفع» می‌شود که قابل کامپایل نیست. علاوه بر این، با توجه به OpenAI کاغذ سفید GPT-4اکسپلویت های جدید، جیلبریک ها و رفتارهای نوظهور به مرور زمان کشف خواهند شد و جلوگیری از آن دشوار خواهد بود. بنابراین برای اطمینان از اینکه ابزارهای امنیتی هوش مصنوعی و راه حل های شخص ثالث بررسی شده و مرتباً به روز می شوند، بررسی دقیق لازم است تا اطمینان حاصل شود که به درهای پشتی ناخواسته در سیستم تبدیل نمی شوند.

اعتماد کنیم یا اعتماد نکنیم؟

مشاهده پذیرش سریع هوش مصنوعی مولد در اوج جنبش اعتماد صفر، پویایی جالبی است. اکثر ابزارهای امنیت سایبری بر اساس این ایده ساخته شده‌اند که سازمان‌ها هرگز نباید اعتماد کنند و همیشه آن را تأیید کنند. هوش مصنوعی مولد بر اساس اصل اعتماد ذاتی به اطلاعاتی که توسط منابع شناخته شده و ناشناخته در دسترس آن قرار می گیرد، ساخته شده است. به نظر می‌رسد این تضاد در اصول، استعاره‌ای مناسب برای سازمان‌های مبارزاتی است که در یافتن تعادل مناسب بین امنیت و بهره‌وری، که در این لحظه تشدید می‌شود، روبرو هستند.

در حالی که ممکن است هوش مصنوعی مولد هنوز آن جام مقدسی نباشد که تیم‌های DevSecOps به آن امیدوار بودند، به پیشرفت تدریجی در کاهش آسیب‌پذیری‌های عقب مانده کمک می‌کند. در حال حاضر، می توان از آن برای ایجاد اصلاحات ساده استفاده کرد. برای رفع‌های پیچیده‌تر، آن‌ها باید یک روش تأیید به اعتماد را اتخاذ کنند که از قدرت هوش مصنوعی با هدایت دانش توسعه‌دهندگانی که کد را نوشته و مالک آن هستند، استفاده کند.

تمبر زمان:

بیشتر از تاریک خواندن