CISA و NCSC تلاش ها را برای افزایش استانداردهای امنیتی هوش مصنوعی رهبری می کنند

CISA و NCSC تلاش ها را برای افزایش استانداردهای امنیتی هوش مصنوعی رهبری می کنند

CISA و NCSC تلاش‌ها را برای ارتقای استانداردهای امنیتی هوش مصنوعی به نام PlatoBlockchain Data Intelligence رهبری می‌کنند. جستجوی عمودی Ai.

آژانس امنیت سایبری ملی بریتانیا (NCSC) و آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده (CISA) راهنمایی رسمی برای ایمن سازی برنامه های کاربردی هوش مصنوعی منتشر کرده اند - سندی که آژانس ها امیدوارند تضمین کند که ایمنی در توسعه هوش مصنوعی ذاتی است.

سازمان جاسوسی بریتانیا می گوید سند راهنما اولین در نوع خود است و توسط 17 کشور دیگر تایید شده است.

رانندگی انتشار این ترس طولانی مدت از این است که امنیت یک فکر بعدی باشد زیرا ارائه دهندگان سیستم های هوش مصنوعی برای همگام شدن با سرعت توسعه هوش مصنوعی تلاش می کنند.

لیندی کامرون، مدیرعامل NCSC، اوایل سال جاری گفت که صنعت فناوری دارای سابقه ترک امنیت به عنوان یک ملاحظات ثانویه زمانی است که سرعت توسعه فناوری بالا باشد.

امروز، دستورالعمل توسعه امن سیستم هوش مصنوعی مجدداً توجه را به این موضوع جلب کرد و افزود که هوش مصنوعی همواره در معرض آسیب‌پذیری‌های جدید نیز خواهد بود.

کامرون گفت: "ما می دانیم که هوش مصنوعی با سرعتی خارق العاده در حال توسعه است و نیاز به اقدامات هماهنگ بین المللی، در سراسر دولت ها و صنعت، برای ادامه دادن وجود دارد."

این دستورالعمل‌ها یک گام مهم در شکل‌دهی به یک درک واقعی و جهانی از خطرات سایبری و استراتژی‌های کاهش در مورد هوش مصنوعی است تا اطمینان حاصل شود که امنیت یک نسخه پس‌نویس برای توسعه نیست، بلکه یک نیاز اصلی در سراسر جهان است. 

من مفتخرم که NCSC تلاش‌های مهمی را برای بالا بردن سطح امنیت سایبری هوش مصنوعی رهبری می‌کند: یک فضای سایبری جهانی امن‌تر به همه ما کمک می‌کند تا با خیال راحت و مطمئن فرصت‌های فوق‌العاده این فناوری را درک کنیم.»

دستورالعمل اتخاذ الف ایمن با طراحی رویکرد، به طور ایده‌آل به توسعه‌دهندگان هوش مصنوعی کمک می‌کند تا بیشترین تصمیمات را در زمینه امنیت سایبری در تمام مراحل فرآیند توسعه اتخاذ کنند. آنها برای برنامه های کاربردی ساخته شده از پایه و برای برنامه هایی که بر روی منابع موجود ساخته شده اند اعمال می شوند.

فهرست کامل کشورهایی که این رهنمود را تأیید می‌کنند، به همراه آژانس‌های امنیت سایبری مربوطه خود، در زیر آمده است:

  • استرالیا – مرکز امنیت سایبری استرالیا (ACSC) اداره سیگنال های استرالیا 
  • کانادا – مرکز کانادایی امنیت سایبری (CCCS) 
  • شیلی – CSIRT دولت شیلی
  • چک – آژانس ملی امنیت اطلاعات و سایبری چک (NUKIB)
  • استونی – مرجع سیستم اطلاعات استونی (RIA) و مرکز ملی امنیت سایبری استونی (NCSC-EE)
  • فرانسه – آژانس امنیت سایبری فرانسه (ANSSI)
  • آلمان – اداره فدرال امنیت اطلاعات آلمان (BSI)
  • اسرائیل - اداره ملی سایبری اسرائیل (INCD)
  • ایتالیا – آژانس امنیت سایبری ملی ایتالیا (ACN)
  • ژاپن – مرکز ملی آمادگی حوادث و استراتژی ژاپن برای امنیت سایبری (NISC؛ دبیرخانه سیاست علم، فناوری و نوآوری ژاپن، دفتر کابینه)
  • نیوزلند – مرکز امنیت سایبری ملی نیوزلند
  • نیجریه – آژانس ملی توسعه فناوری اطلاعات نیجریه (NITDA)
  • نروژ – مرکز امنیت سایبری ملی نروژ (NCSC-NO)
  • لهستان – موسسه تحقیقات ملی NASK لهستان (NASK)
  • جمهوری کره - سرویس اطلاعات ملی جمهوری کره (NIS)
  • سنگاپور – آژانس امنیت سایبری سنگاپور (CSA)
  • پادشاهی متحده بریتانیا و ایرلند شمالی – مرکز امنیت سایبری ملی (NCSC)
  • ایالات متحده آمریکا – آژانس امنیت سایبری و زیرساخت (CISA)؛ آژانس امنیت ملی (NSA؛ دفتر تحقیقات فدرال (FBI)

این دستورالعمل‌ها به چهار حوزه تمرکز کلیدی تقسیم می‌شوند که هر کدام دارای پیشنهادات خاصی برای بهبود هر مرحله از چرخه توسعه هوش مصنوعی است.

1. طراحی ایمن

همانطور که از عنوان پیداست، دستورالعمل ها بیان می کنند که امنیت باید حتی قبل از شروع توسعه در نظر گرفته شود. اولین قدم افزایش آگاهی کارکنان در مورد خطرات امنیتی هوش مصنوعی و کاهش آن است. 

سپس توسعه‌دهندگان باید تهدیدات سیستم خود را مدل‌سازی کنند، و این تهدیدات را نیز در آینده در نظر بگیرند، مانند در نظر گرفتن تعداد بیشتر تهدیدات امنیتی که با جذب کاربران بیشتر توسط این فناوری به وجود می‌آیند، و پیشرفت‌های فناوری آینده مانند حملات خودکار.

تصمیمات امنیتی نیز باید با هر تصمیم عملکردی گرفته شود. اگر در مرحله طراحی، توسعه‌دهنده‌ای آگاه باشد که مؤلفه‌های هوش مصنوعی اقدامات خاصی را آغاز می‌کنند، باید سؤالاتی در مورد بهترین روش برای ایمن کردن این فرآیند پرسیده شود. به عنوان مثال، اگر هوش مصنوعی فایل‌ها را تغییر می‌دهد، باید تدابیر امنیتی لازم برای محدود کردن این قابلیت فقط به محدودیت‌های نیازهای خاص برنامه اضافه شود.

2. توسعه ایمن

ایمن سازی مرحله توسعه شامل راهنمایی در مورد امنیت زنجیره تامین، حفظ اسناد قوی، حفاظت از دارایی ها و مدیریت بدهی های فنی است.

امنیت زنجیره تامین در چند سال گذشته یک نقطه تمرکز ویژه برای مدافعان بوده است، با انبوهی از حملات با مشخصات بالا که منجر به تعداد زیادی قربانی

حصول اطمینان از اینکه فروشندگان مورد استفاده توسعه دهندگان هوش مصنوعی تأیید شده اند و مطابق با استانداردهای امنیتی بالا عمل می کنند، مهم است، و همچنین داشتن برنامه هایی برای زمانی که سیستم های مهم ماموریت با مشکلاتی مواجه می شوند، مهم است.

3. استقرار ایمن

استقرار ایمن شامل محافظت از زیرساخت مورد استفاده برای پشتیبانی از یک سیستم هوش مصنوعی، از جمله کنترل های دسترسی برای API ها، مدل ها و داده ها است. اگر قرار بود یک حادثه امنیتی آشکار شود، توسعه‌دهندگان باید برنامه‌های واکنش و اصلاح را نیز در برنامه داشته باشند که فرض کنند مشکلات روزی ظاهر می‌شوند.

عملکرد مدل و داده‌هایی که بر روی آن آموزش داده شده است باید به طور مداوم در برابر حملات محافظت شود و تنها زمانی که تحت ارزیابی‌های امنیتی کامل قرار گرفته باشند، باید مسئولانه منتشر شوند. 

سیستم‌های هوش مصنوعی همچنین باید به‌طور پیش‌فرض ایمن بودن را برای کاربران آسان کنند و در صورت امکان، ایمن‌ترین گزینه یا پیکربندی را برای همه کاربران پیش‌فرض قرار دهند. شفافیت در مورد نحوه استفاده، ذخیره و دسترسی به داده های کاربران نیز کلیدی است.

4. عملیات و نگهداری ایمن

بخش آخر نحوه ایمن سازی سیستم های هوش مصنوعی پس از استقرار آنها را پوشش می دهد. 

نظارت در قلب بسیاری از این موارد است، خواه این رفتار سیستم برای ردیابی تغییراتی باشد که ممکن است بر امنیت تأثیر بگذارد، یا آنچه ورودی به سیستم است. انجام الزامات حفظ حریم خصوصی و حفاظت از داده ها مستلزم نظارت و نظارت است ورود به سیستم ورودی برای نشانه های سوء استفاده 

به‌روزرسانی‌ها نیز باید به‌طور پیش‌فرض به‌طور خودکار صادر شوند تا نسخه‌های قدیمی یا آسیب‌پذیر استفاده نشوند. در نهایت، شرکت فعال در جوامع اشتراک‌گذاری اطلاعات می‌تواند به صنعت کمک کند تا درک درستی از تهدیدات امنیتی هوش مصنوعی داشته باشد و زمان بیشتری را برای مدافعان فراهم کند تا اقدامات کاهشی را طراحی کنند که به نوبه خود می‌تواند سوءاستفاده‌های مخرب بالقوه را محدود کند. ®

تمبر زمان:

بیشتر از ثبت نام