چگونه در برنامه های امنیت سایبری خود، هوش مصنوعی را ایمن معمار کنید

چگونه در برنامه های امنیت سایبری خود، هوش مصنوعی را ایمن معمار کنید

چگونه به طور ایمن از هوش مصنوعی در برنامه های امنیت سایبری خود معمار کنیم هوش داده پلاتو بلاک چین. جستجوی عمودی Ai.

در پایان ماه ژوئن، شرکت امنیت سایبری Group-IB یک مورد قابل توجه را فاش کرد نقض امنیتی که بر حساب های ChatGPT تأثیر گذاشت. این شرکت 100,000 دستگاه در معرض خطر را شناسایی کرد که هر کدام دارای اعتبار ChatGPT بودند که متعاقباً در طول سال گذشته در بازارهای Dark Web غیرقانونی معامله شدند. این نقض باعث شد تا توجه فوری برای رسیدگی به امنیت به خطر افتاده حساب‌های ChatGPT صورت گیرد، زیرا جستجوهای جستجو حاوی اطلاعات حساس در معرض هکرها قرار می‌گیرند.

در یک حادثه دیگر، در مدت کمتر از یک ماه، سامسونگ با سه مورد مستند مواجه شد که در آن کارمندان به طور سهوی اطلاعات حساس از طریق ChatGPT به بیرون درز کرد. از آنجایی که ChatGPT داده‌های ورودی کاربر را برای بهبود عملکرد خود حفظ می‌کند، این اسرار تجاری ارزشمند متعلق به سامسونگ اکنون در اختیار OpenAI، شرکت پشتیبان خدمات هوش مصنوعی است. این موضوع نگرانی های قابل توجهی در رابطه با محرمانه بودن و امنیت اطلاعات اختصاصی سامسونگ ایجاد می کند.

به دلیل چنین نگرانی هایی در مورد انطباق ChatGPT با مقررات عمومی حفاظت از داده اتحادیه اروپا (GDPR)، که دستورالعمل های سختگیرانه ای را برای جمع آوری و استفاده از داده ها الزامی می کند، ایتالیا یک ممنوعیت سراسری وضع کرده است در مورد استفاده از ChatGPT

پیشرفت های سریع در هوش مصنوعی و برنامه های کاربردی هوش مصنوعی فرصت های جدیدی را برای تسریع رشد در هوش تجاری، محصولات و عملیات باز کرده است. اما صاحبان برنامه های امنیت سایبری باید از حریم خصوصی داده ها اطمینان حاصل کنند، در حالی که منتظر تدوین قوانین هستند.

موتور عمومی در مقابل موتور خصوصی

برای درک بهتر مفاهیم، ​​بیایید با تعریف هوش مصنوعی عمومی و هوش مصنوعی خصوصی شروع کنیم. هوش مصنوعی عمومی به برنامه‌های کاربردی نرم‌افزار هوش مصنوعی در دسترس عموم اشاره دارد که بر روی مجموعه‌های داده آموزش دیده‌اند که اغلب از کاربران یا مشتریان تهیه شده‌اند. نمونه بارز هوش مصنوعی عمومی ChatGPT است که از داده‌های در دسترس عموم از اینترنت، از جمله مقالات متنی، تصاویر و ویدیوها استفاده می‌کند.

هوش مصنوعی عمومی همچنین می‌تواند الگوریتم‌هایی را در بر بگیرد که از مجموعه داده‌هایی استفاده می‌کنند که منحصر به یک کاربر یا سازمان خاص نیستند. در نتیجه، مشتریان هوش مصنوعی عمومی باید بدانند که ممکن است داده های آنها کاملاً خصوصی باقی نماند.

از سوی دیگر، هوش مصنوعی خصوصی شامل الگوریتم‌های آموزشی بر روی داده‌هایی است که مختص یک کاربر یا سازمان خاص است. در این حالت، اگر از سیستم‌های یادگیری ماشینی برای آموزش مدلی با استفاده از مجموعه داده‌های خاص، مانند صورت‌حساب‌ها یا فرم‌های مالیاتی استفاده می‌کنید، آن مدل در انحصار سازمان شما باقی می‌ماند. فروشندگان پلتفرم از داده های شما برای آموزش مدل های خود استفاده نمی کنند، بنابراین هوش مصنوعی خصوصی از هرگونه استفاده از داده های شما برای کمک به رقبا جلوگیری می کند.

هوش مصنوعی را در برنامه ها و سیاست های آموزشی ادغام کنید

کارکنان امنیت سایبری به منظور آزمایش، توسعه و ادغام برنامه‌های هوش مصنوعی در محصولات و خدمات خود در حالی که بهترین شیوه‌ها را رعایت می‌کنند، باید سیاست‌های زیر را عملی کنند.

آگاهی و آموزش کاربر: به کاربران در مورد خطرات مرتبط با استفاده از هوش مصنوعی آموزش دهید و آنها را تشویق کنید که هنگام انتقال اطلاعات حساس محتاط باشند. شیوه های ارتباطی ایمن را ترویج کنید و به کاربران توصیه کنید صحت سیستم هوش مصنوعی را تأیید کنند.

  • کمینه سازی داده ها: فقط حداقل داده های لازم برای انجام کار را در اختیار موتور هوش مصنوعی قرار دهید. از به اشتراک گذاری اطلاعات غیرضروری یا حساس که مربوط به پردازش هوش مصنوعی نیست خودداری کنید.
  • ناشناس سازی و هویت زدایی: در صورت امکان، قبل از وارد کردن داده‌ها به موتور هوش مصنوعی، آن‌ها را ناشناس یا بی‌نام کنید. این شامل حذف اطلاعات شناسایی شخصی (PII) یا هر ویژگی حساس دیگری است که برای پردازش هوش مصنوعی لازم نیست.

شیوه های مدیریت امن داده ها: سیاست ها و رویه های سختگیرانه ای را برای مدیریت داده های حساس خود تعیین کنید. دسترسی به پرسنل مجاز را محدود کنید و مکانیسم های احراز هویت قوی را برای جلوگیری از دسترسی غیرمجاز اعمال کنید. آموزش کارکنان در مورد بهترین شیوه های حفظ حریم خصوصی داده ها و پیاده سازی مکانیسم های ثبت و حسابرسی برای ردیابی دسترسی و استفاده از داده ها.

نگهداری و دفع: خط‌مشی‌های حفظ داده‌ها را تعریف کنید و به محض اینکه دیگر به داده‌ها نیاز ندارید، به‌طور ایمن آن‌ها را از بین ببرید. به درستی اجرا شود مکانیسم های دفع داده ها، مانند حذف ایمن یا پاک کردن رمزنگاری، برای اطمینان از اینکه داده ها پس از اینکه دیگر مورد نیاز نیستند بازیابی نمی شوند.

ملاحظات قانونی و انطباق: پیامدهای قانونی داده هایی که در موتور هوش مصنوعی وارد می کنید را درک کنید. اطمینان حاصل کنید که روشی که کاربران از هوش مصنوعی استفاده می کنند با مقررات مربوطه مطابقت دارد، مانند قوانین حفاظت از داده ها یا استانداردهای خاص صنعت.

ارزیابی فروشنده: اگر از موتور هوش مصنوعی ارائه شده توسط فروشنده شخص ثالث استفاده می کنید، ارزیابی کاملی از اقدامات امنیتی آنها انجام دهید. اطمینان حاصل کنید که فروشنده از بهترین شیوه های صنعت برای امنیت داده ها و حفظ حریم خصوصی پیروی می کند و تضمین های مناسب برای محافظت از داده های شما در اختیار دارد. به عنوان مثال، گواهی ISO و SOC، اعتبار ثالث ارزشمندی را در مورد پایبندی فروشنده به استانداردهای شناخته شده و تعهد آنها به امنیت اطلاعات ارائه می دهد.

یک خط مشی استفاده قابل قبول هوش مصنوعی (AUP) را رسمی کنید: یک خط مشی استفاده قابل قبول هوش مصنوعی باید هدف و اهداف خط مشی را مشخص کند و بر استفاده مسئولانه و اخلاقی از فناوری های هوش مصنوعی تأکید کند. باید موارد استفاده قابل قبول را تعریف کند و محدوده و مرزهای استفاده از هوش مصنوعی را مشخص کند. AUP باید شفافیت، مسئولیت پذیری و تصمیم گیری مسئولانه در استفاده از هوش مصنوعی را تشویق کند و فرهنگ شیوه های هوش مصنوعی اخلاقی را در سازمان تقویت کند. بررسی‌ها و به‌روزرسانی‌های منظم، ارتباط این خط‌مشی را با فن‌آوری‌های در حال تحول هوش مصنوعی و اخلاقیات تضمین می‌کند.

نتیجه گیری

با پیروی از این دستورالعمل ها، صاحبان برنامه می توانند به طور موثر از ابزارهای هوش مصنوعی استفاده کنند و در عین حال از اطلاعات حساس محافظت کنند و استانداردهای اخلاقی و حرفه ای را رعایت کنند. بررسی مواد تولید شده توسط هوش مصنوعی از نظر دقت و در عین حال محافظت همزمان از داده‌های ورودی که برای ایجاد درخواست‌های پاسخ ارسال می‌شوند، بسیار مهم است.

تمبر زمان:

بیشتر از تاریک خواندن