خريطة طريق CISA: رسم مسار لتطوير الذكاء الاصطناعي الجدير بالثقة

خريطة طريق CISA: رسم مسار لتطوير الذكاء الاصطناعي الجدير بالثقة

خريطة طريق CISA: رسم مسار لتطوير الذكاء الاصطناعي الجدير بالثقة وذكاء بيانات PlatoBlockchain. البحث العمودي. منظمة العفو الدولية.

التعليق
أثار التبني السريع لتكنولوجيا الذكاء الاصطناعي مخاوف سيبرانية خطيرة بين خبراء الذكاء الاصطناعي وصانعي السياسات وعمالقة صناعة التكنولوجيا والدول وقادة العالم. رداً على ذلك، كشفت وكالة الأمن السيبراني والبنية التحتية (CISA) عن 2023-2024 "خارطة طريق CISA للذكاء الاصطناعي" بهدف إنشاء تطوير واستخدام آمن وجدير بالثقة للذكاء الاصطناعي، وفقًا لتوجيهات الأمر التنفيذي للبيت الأبيض 14110.

أصدرت CISA ""الخطة الاستراتيجية" للأعوام 2023-2025 مع مهمة توفير بنية تحتية آمنة ومرنة للشعب الأمريكي. تعد خريطة طريق الذكاء الاصطناعي بمثابة تعديل لنفس الأهداف الأربعة التي تم تسليط الضوء عليها في الخطة الإستراتيجية:

  • الدفاع السيبراني: في حين أن أنظمة الذكاء الاصطناعي يمكن أن تساعد المؤسسات على تحسين دفاعاتها ضد التهديدات السيبرانية الناشئة والمتقدمة، فإن أنظمة البرمجيات القائمة على الذكاء الاصطناعي تشكل حلاً عدد المخاطر التي تتطلب قوية دفاع الذكاء الاصطناعي. وتهدف خارطة الطريق إلى تعزيز الاستخدام المفيد للذكاء الاصطناعي، وفي الوقت نفسه، حماية أنظمة الدولة من التهديدات القائمة على الذكاء الاصطناعي.

  • الحد من المخاطر والمرونة: بنية تحتية حرجة تستخدم المؤسسات بشكل متزايد أنظمة الذكاء الاصطناعي للحفاظ على مرونتها السيبرانية وتعزيزها. تهدف CISA من خلال خريطة الطريق الخاصة بها إلى تعزيز الاعتماد المسؤول والمدرك للمخاطر لأنظمة البرمجيات القائمة على الذكاء الاصطناعي والتي "آمن حسب التصميم"- حيث يتم تطبيق الأمان في مرحلة التصميم في دورة حياة تطوير المنتج بحيث يمكن تقليل العيوب القابلة للاستغلال عند المصدر.

  • التعاون التشغيلي: ومع انتشار تكنولوجيا الذكاء الاصطناعي، قد يتعرض مواطنو الولايات المتحدة وقطاعات البنية التحتية الحيوية لتهديدات مستهدفة، الأمر الذي قد يتطلب تبادل المعلومات واستجابات منسقة من المنظمات ووكالات إنفاذ القانون والشركاء الدوليين. تخطط CISA لتطوير إطار عمل يساعد على تحسين المواءمة والتنسيق بين أصحاب المصلحة المعنيين.

  • توحيد الوكالة: تهدف CISA إلى توحيد ودمج أنظمة برمجيات الذكاء الاصطناعي عبر الوكالة، مما سيساعدها على استخدام أنظمة الذكاء الاصطناعي بشكل أكثر تماسكًا. تخطط CISA أيضًا لتوظيف وتطوير قوة عاملة قادرة على تسخير أنظمة الذكاء الاصطناعي على النحو الأمثل.

تضع خارطة طريق الذكاء الاصطناعي المسؤولية الأمنية على عاتق مطوري الذكاء الاصطناعي، وليس على مستهلكي الذكاء الاصطناعي

تاريخيًا، قاومت شركات تصنيع برمجيات الذكاء الاصطناعي بناء منتجات آمنة من حيث التصميم، مما يضع عبء الأمان على عاتق مستهلكي الذكاء الاصطناعي. تنص خريطة طريق CISA AI على أن الشركات المصنعة لأنظمة الذكاء الاصطناعي تعتمد مبادئ التصميم الآمن طوال دورة حياة التطوير بأكملها. يتضمن ذلك جعل الأمان من خلال التصميم أولوية قصوى للأعمال، والحصول على ملكية النتائج الأمنية للعملاء، وقيادة تطوير المنتجات بشفافية ومساءلة جذريتين.

تخطط CISA لتنفيذ خمسة خطوط من الجهد لتحقيق أهدافها المعلنة

حددت CISA خمسة خطوط للجهد لتوحيد وتسريع خريطة الطريق المذكورة أعلاه:

  • الاستخدام المسؤول للذكاء الاصطناعي: تعتزم CISA نشر أدوات برمجية مدعمة بالذكاء الاصطناعي لتعزيز الدفاعات السيبرانية ودعم البنية التحتية الحيوية. ستمر جميع الأنظمة والأدوات عبر عملية اختيار صارمة حيث ستضمن CISA أن الأنظمة المتعلقة بالذكاء الاصطناعي مسؤولة وآمنة وأخلاقية وآمنة للاستخدام. ستقوم CISA أيضًا بنشر عمليات حوكمة قوية لن تكون متسقة فقط مع عمليات الشراء الفيدرالية والقوانين والسياسات المعمول بها والخصوصية والحقوق والحريات المدنية، ولكنها ستعتمد أيضًا نهجًا للتقييم المستمر لنماذج الذكاء الاصطناعي أثناء مراجعة ممارسات أمن تكنولوجيا المعلومات لتحقيق التكامل الآمن. التكنولوجيا.

  • ضمان أنظمة الذكاء الاصطناعي: لبناء تطوير وتنفيذ برامج الذكاء الاصطناعي أكثر أمانًا ومرونة، تخطط CISA لدعمها آمن حسب التصميم المبادرات، وتطوير أفضل الممارسات الأمنية والإرشادات لمجموعة واسعة من أصحاب المصلحة (على سبيل المثال، الوكالات الحكومية المدنية الفيدرالية، وشركات القطاع الخاص، وحكومات الولايات، والحكومات المحلية، والقبلية، والأقاليم) ودفع اعتماد ممارسات قوية لإدارة الثغرات الأمنية، وتحديد عملية الكشف عن الثغرات الأمنية وتقديم التوجيه للاختبارات الأمنية وتمارين الفريق الأحمر لأنظمة الذكاء الاصطناعي.

  • حماية البنية التحتية الحيوية من الاستخدام الضار للذكاء الاصطناعي: ستتعاون CISA مع الوكالات الحكومية وشركاء الصناعة مثل التعاونية المشتركة للدفاع السيبراني لتطوير واختبار وتقييم أدوات الذكاء الاصطناعي والتعاون في التطوير تهديدات الذكاء الاصطناعي. ستقوم CISA بنشر مواد لرفع مستوى الوعي بالمخاطر الناشئة وستقوم أيضًا بتقييم أساليب إدارة المخاطر لتحديد الإطار التحليلي المناسب لتقييم ومعالجة مخاطر الذكاء الاصطناعي.

  • التعاون مع الوكالات المشتركة والشركاء الدوليين والجمهور: ولرفع مستوى الوعي ومشاركة معلومات التهديدات وتحسين الاستجابة للحوادث وقدرات التحقيق، تخطط CISA لتعزيز الأساليب التعاونية مثل مجموعات عمل الذكاء الاصطناعي، وحضور الاجتماعات المشتركة بين الوكالات أو المشاركة فيها، والتنسيق الوثيق مع كيانات وزارة الأمن الداخلي. ستعمل CISA عبر الوكالات المشتركة لضمان توافق سياساتها واستراتيجياتها مع كل الحكومة النهج وسيعمل على إشراك الشركاء الدوليين لتشجيع اعتماد أفضل الممارسات الدولية للذكاء الاصطناعي الآمن.

  • توسيع خبرة الذكاء الاصطناعي في القوى العاملة: الانسان هناك حاجة دائمًا إلى اليقظة والرقابة والحدس لاكتشاف التهديدات السيبرانية القائمة على الذكاء الاصطناعي وغيره، ولضمان خلو أنظمة الذكاء الاصطناعي من الأخطاء والتحيزات والتلاعب. ولا يمكن تعزيز الحدس البشري واليقظة إلا من خلال مبادرات قوية للتوعية الأمنية. ولهذا السبب تخطط CISA لتثقيف القوى العاملة بشكل مستمر حول أنظمة وتقنيات برمجيات الذكاء الاصطناعي، وتوظيف موظفين ذوي خبرة في الذكاء الاصطناعي، وإجراء برامج تدريب للتوعية الأمنية التي يجب أن تتضمن تمارين ظرفية لضمان فهم الموظفين للجوانب القانونية والأخلاقية والسياسية للذكاء الاصطناعي. الأنظمة، علاوة على الجوانب الفنية. 

من خلال المبادرات الموضحة في خريطة طريق CISA، تأمل الوكالة في بناء وضع أكثر قوة للأمن السيبراني للأمة، وحماية البنية التحتية الحيوية من الاستخدام الضار للذكاء الاصطناعي، وإعطاء الأولوية للأمن باعتباره متطلبًا أساسيًا للأعمال في الأدوات والأنظمة القائمة على الذكاء الاصطناعي.

الطابع الزمني:

اكثر من قراءة مظلمة