تقود CISA وNCSC الجهود الرامية إلى رفع معايير أمان الذكاء الاصطناعي

تقود CISA وNCSC الجهود الرامية إلى رفع معايير أمان الذكاء الاصطناعي

تقود CISA وNCSC الجهود الرامية إلى رفع معايير أمان الذكاء الاصطناعي لذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

نشرت الوكالة الوطنية للأمن السيبراني في المملكة المتحدة (NCSC) ووكالة الأمن السيبراني وأمن البنية التحتية (CISA) في الولايات المتحدة إرشادات رسمية لتأمين تطبيقات الذكاء الاصطناعي - وهي وثيقة تأمل الوكالتان أن تضمن أن السلامة متأصلة في تطوير الذكاء الاصطناعي.

وتقول وكالة التجسس البريطانية وثيقة التوجيه هو الأول من نوعه ويحظى بمصادقة 17 دولة أخرى.

يقود منشور هو الخوف طويل الأمد من أن الأمن سيكون فكرة لاحقة حيث يعمل مقدمو أنظمة الذكاء الاصطناعي على مواكبة وتيرة تطور الذكاء الاصطناعي.

وقالت ليندي كاميرون، الرئيس التنفيذي في NCSC، في وقت سابق من هذا العام، إن صناعة التكنولوجيا لديها تاريخ في ترك الأمن كاعتبار ثانوي عندما تكون وتيرة التطور التكنولوجي عالية.

اليوم، لفتت المبادئ التوجيهية لتطوير نظام الذكاء الاصطناعي الآمن الانتباه مرة أخرى إلى هذه المشكلة، مضيفة أن الذكاء الاصطناعي سيتعرض دائمًا لنقاط ضعف جديدة أيضًا.

وقال كاميرون: "نحن نعلم أن الذكاء الاصطناعي يتطور بوتيرة هائلة وأن هناك حاجة إلى عمل دولي متضافر، عبر الحكومات والصناعة، لمواكبته".

"تمثل هذه المبادئ التوجيهية خطوة مهمة في تشكيل فهم عالمي مشترك حقًا للمخاطر السيبرانية واستراتيجيات التخفيف المتعلقة بالذكاء الاصطناعي لضمان أن الأمن ليس ملحقًا بالتنمية ولكنه مطلب أساسي طوال الوقت. 

"أنا فخور بأن المركز الوطني للأمن السيبراني يقود الجهود الحاسمة لرفع مستوى الأمن السيبراني للذكاء الاصطناعي: إن الفضاء السيبراني العالمي الأكثر أمانًا سيساعدنا جميعًا على تحقيق الفرص الرائعة التي توفرها هذه التكنولوجيا بأمان وثقة."

تعتمد المبادئ التوجيهية أ آمن حسب التصميم هذا النهج، يساعد بشكل مثالي مطوري الذكاء الاصطناعي على اتخاذ القرارات الأكثر أمانًا عبر الإنترنت في جميع مراحل عملية التطوير. سيتم تطبيقها على التطبيقات التي تم إنشاؤها من الألف إلى الياء وتلك المبنية على أعلى الموارد الموجودة.

القائمة الكاملة للبلدان التي تصادق على التوجيهات، إلى جانب وكالات الأمن السيبراني الخاصة بها، هي أدناه:

  • أستراليا - مركز الأمن السيبراني الأسترالي التابع لمديرية الإشارات الأسترالية (ACSC) 
  • كندا – المركز الكندي للأمن السيبراني (CCCS) 
  • تشيلي – حكومة تشيلي CSIRT
  • التشيك - الوكالة الوطنية لأمن المعلومات والإنترنت في التشيك (NUKIB)
  • إستونيا – هيئة نظام المعلومات الإستونية (RIA) والمركز الوطني للأمن السيبراني في إستونيا (NCSC-EE)
  • فرنسا – الوكالة الفرنسية للأمن السيبراني (ANSSI)
  • ألمانيا – المكتب الفيدرالي الألماني لأمن المعلومات (BSI)
  • إسرائيل – المديرية السيبرانية الوطنية الإسرائيلية (INCD)
  • إيطاليا – الوكالة الوطنية الإيطالية للأمن السيبراني (ACN)
  • اليابان - المركز الوطني الياباني للاستعداد للحوادث واستراتيجية الأمن السيبراني (NISC؛ أمانة اليابان للعلوم والتكنولوجيا وسياسة الابتكار، مكتب مجلس الوزراء
  • نيوزيلندا – مركز نيوزيلندا الوطني للأمن السيبراني
  • نيجيريا - الوكالة الوطنية النيجيرية لتطوير تكنولوجيا المعلومات (NITDA)
  • النرويج – المركز الوطني النرويجي للأمن السيبراني (NCSC-NO)
  • بولندا – معهد NASK الوطني للبحوث في بولندا (NASK)
  • جمهورية كوريا – جهاز المخابرات الوطنية لجمهورية كوريا (NIS)
  • سنغافورة – وكالة الأمن السيبراني في سنغافورة (CSA)
  • المملكة المتحدة لبريطانيا العظمى وأيرلندا الشمالية – المركز الوطني للأمن السيبراني (NCSC)
  • الولايات المتحدة الأمريكية – وكالة الأمن السيبراني والبنية التحتية (CISA)؛ وكالة الأمن القومي (NSA؛ مكتب التحقيقات الفيدرالي (FBI)

تم تقسيم المبادئ التوجيهية إلى أربعة مجالات تركيز رئيسية، ولكل منها اقتراحات محددة لتحسين كل مرحلة من مراحل دورة تطوير الذكاء الاصطناعي.

1. تصميم آمن

كما يوحي العنوان، تنص الإرشادات على أنه يجب مراعاة الأمان حتى قبل بدء التطوير. الخطوة الأولى هي رفع مستوى الوعي بين الموظفين حول المخاطر الأمنية للذكاء الاصطناعي وطرق التخفيف منها. 

يجب على المطورين بعد ذلك وضع نماذج للتهديدات التي تتعرض لها أنظمتهم، مع الأخذ في الاعتبار تأمينها في المستقبل أيضًا، مثل حساب العدد الأكبر من التهديدات الأمنية التي ستأتي عندما تجتذب التكنولوجيا المزيد من المستخدمين، والتطورات التكنولوجية المستقبلية مثل الهجمات الآلية.

ويجب أيضًا اتخاذ القرارات الأمنية مع كل قرار وظيفي. إذا كان المطور يدرك في مرحلة التصميم أن مكونات الذكاء الاصطناعي ستؤدي إلى إجراءات معينة، فيجب طرح الأسئلة حول أفضل السبل لتأمين هذه العملية. على سبيل المثال، إذا كان الذكاء الاصطناعي سيقوم بتعديل الملفات، فيجب إضافة الضمانات اللازمة لتقييد هذه القدرة فقط في حدود الاحتياجات المحددة للتطبيق.

2. التنمية الآمنة

يتضمن تأمين مرحلة التطوير إرشادات حول أمان سلسلة التوريد، والحفاظ على وثائق قوية، وحماية الأصول، وإدارة الديون الفنية.

لقد كان أمن سلسلة التوريد نقطة تركيز خاصة للمدافعين على مدى السنوات القليلة الماضية، مع سلسلة من الهجمات البارزة التي أدت إلى أعداد هائلة من الضحايا

من المهم التأكد من التحقق من البائعين الذين يستخدمهم مطورو الذكاء الاصطناعي ويعملون وفقًا لمعايير أمان عالية، كما هو الحال مع وجود خطط مطبقة عندما تواجه الأنظمة ذات المهام الحرجة مشكلات.

3. النشر الآمن

يتضمن النشر الآمن حماية البنية التحتية المستخدمة لدعم نظام الذكاء الاصطناعي، بما في ذلك عناصر التحكم في الوصول إلى واجهات برمجة التطبيقات والنماذج والبيانات. إذا حدث حادث أمني، فيجب أن يكون لدى المطورين أيضًا خطط استجابة ومعالجة تفترض أن المشكلات ستظهر يومًا ما.

ولابد من حماية وظائف النموذج والبيانات التي تم التدريب عليها من الهجمات بشكل مستمر، ولابد من تحريرها بشكل مسؤول، فقط عندما تخضع لتقييمات أمنية شاملة. 

يجب أن تسهل أنظمة الذكاء الاصطناعي أيضًا على المستخدمين أن يكونوا آمنين بشكل افتراضي، حيثما أمكن ذلك، مما يجعل الخيار الأكثر أمانًا أو التكوين هو الإعداد الافتراضي لجميع المستخدمين. تعد الشفافية حول كيفية استخدام بيانات المستخدمين وتخزينها والوصول إليها أمرًا أساسيًا أيضًا.

4. التشغيل والصيانة الآمنة

يغطي القسم الأخير كيفية تأمين أنظمة الذكاء الاصطناعي بعد نشرها. 

تقع المراقبة في قلب الكثير من هذا، سواء كان ذلك سلوك النظام لتتبع التغييرات التي قد تؤثر على الأمان، أو ما يتم إدخاله في النظام. سيتطلب استيفاء متطلبات الخصوصية وحماية البيانات المراقبة والمراقبة تسجيل مدخلات لعلامات سوء الاستخدام. 

يجب أيضًا إصدار التحديثات تلقائيًا بشكل افتراضي حتى لا يتم استخدام الإصدارات القديمة أو الضعيفة. وأخيرًا، فإن كونك مشاركًا نشطًا في مجتمعات تبادل المعلومات يمكن أن يساعد الصناعة على بناء فهم للتهديدات الأمنية للذكاء الاصطناعي، مما يوفر المزيد من الوقت للمدافعين لابتكار وسائل التخفيف التي يمكن أن تحد بدورها من عمليات الاستغلال الضارة المحتملة. ®

الطابع الزمني:

اكثر من السجل