แผนที่ถนนของ CISA: จัดทำแผนภูมิหลักสูตรเพื่อการพัฒนา AI ที่น่าเชื่อถือ

แผนที่ถนนของ CISA: จัดทำแผนภูมิหลักสูตรเพื่อการพัฒนา AI ที่น่าเชื่อถือ

แผนที่ถนนของ CISA: การสร้างแผนภูมิหลักสูตรสำหรับการพัฒนา AI ที่น่าเชื่อถือ PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

COMMENTARY
การนำเทคโนโลยีปัญญาประดิษฐ์มาใช้อย่างรวดเร็วได้ก่อให้เกิดความกังวลทางไซเบอร์อย่างรุนแรงในหมู่ผู้เชี่ยวชาญด้าน AI ผู้กำหนดนโยบาย ผู้ยิ่งใหญ่ในอุตสาหกรรมเทคโนโลยี ประเทศต่างๆ และผู้นำระดับโลก เพื่อเป็นการตอบสนอง Cybersecurity and Infrastructure Agency (CISA) ได้เปิดตัว พ.ศ. 2023-2024 “แผนงาน CISA สำหรับปัญญาประดิษฐ์” โดยมีเป้าหมายเพื่อสร้างการพัฒนาและการใช้ AI ที่ปลอดภัยและเชื่อถือได้ตามคำแนะนำของ คำสั่งผู้บริหารทำเนียบขาวที่ 14110.

CISA เปิดตัว “แผนยุทธศาสตร์” พ.ศ. 2023-2025 ด้วยภารกิจในการส่งมอบโครงสร้างพื้นฐานที่ปลอดภัยและยืดหยุ่นสำหรับประชาชนชาวอเมริกัน แผนงาน AI เป็นการปรับเป้าหมายสี่ประการเดียวกันที่เน้นไว้ในแผนกลยุทธ์:

  • การป้องกันทางไซเบอร์: แม้ว่าระบบ AI สามารถช่วยองค์กรปรับปรุงการป้องกันต่อภัยคุกคามทางไซเบอร์ที่เกิดขึ้นใหม่และขั้นสูงได้ แต่ระบบซอฟต์แวร์ที่ใช้ AI ก็ก่อให้เกิด จำนวนความเสี่ยง ที่ต้องการความเข้มแข็ง การป้องกันเอไอ. แผนงานนี้มีจุดมุ่งหมายเพื่อส่งเสริมการใช้ AI อย่างเป็นประโยชน์ และในขณะเดียวกันก็ปกป้องระบบของประเทศจากภัยคุกคามจาก AI

  • การลดความเสี่ยงและความยืดหยุ่น: โครงสร้างพื้นฐานที่สำคัญ องค์กรต่างๆ หันมาใช้ระบบ AI มากขึ้นเพื่อรักษาและเสริมสร้างความสามารถในการฟื้นตัวทางไซเบอร์ของตนเอง ด้วยแผนงาน CISA มุ่งหวังที่จะส่งเสริมการนำระบบซอฟต์แวร์ที่ใช้ AI มาใช้อย่างมีความรับผิดชอบและคำนึงถึงความเสี่ยงที่ “ปลอดภัยด้วยการออกแบบ” — โดยที่การรักษาความปลอดภัยถูกนำมาใช้ในขั้นตอนการออกแบบของวงจรการพัฒนาผลิตภัณฑ์ เพื่อลดข้อบกพร่องที่สามารถใช้ประโยชน์ได้ลดลงที่แหล่งที่มา

  • ความร่วมมือในการดำเนินงาน: ในขณะที่เทคโนโลยี AI แพร่หลาย พลเมืองสหรัฐฯ และภาคโครงสร้างพื้นฐานที่สำคัญอาจตกอยู่ภายใต้ภัยคุกคามแบบกำหนดเป้าหมาย ซึ่งอาจต้องมีการแบ่งปันข้อมูลและการตอบสนองที่ประสานงานจากองค์กร หน่วยงานบังคับใช้กฎหมาย และพันธมิตรระหว่างประเทศ CISA วางแผนที่จะพัฒนากรอบการทำงานที่ช่วยปรับปรุงการจัดตำแหน่งและการประสานงานระหว่างผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้อง

  • การรวมเอเจนซี่: CISA มีเป้าหมายที่จะรวมและบูรณาการระบบซอฟต์แวร์ AI ทั่วทั้งหน่วยงาน ซึ่งจะช่วยให้ใช้ระบบ AI สอดคล้องกันมากขึ้น CISA ยังวางแผนที่จะรับสมัครและพัฒนาพนักงานที่สามารถควบคุมระบบ AI ได้อย่างเหมาะสมที่สุด

โรดแมป AI สร้างความรับผิดชอบด้านความปลอดภัยให้กับนักพัฒนา AI ไม่ใช่ผู้บริโภค AI

ในอดีต ผู้ผลิตซอฟต์แวร์ AI ต่อต้านการสร้างผลิตภัณฑ์ที่ปลอดภัยด้วยการออกแบบ ทำให้ผู้บริโภค AI แบกภาระด้านความปลอดภัย โรดแมป CISA AI กำหนดให้ผู้ผลิตระบบ AI นำมาใช้อย่างปลอดภัยด้วยหลักการออกแบบตลอดวงจรการพัฒนาทั้งหมด ซึ่งรวมถึงการรักษาความปลอดภัยด้วยการออกแบบเป็นลำดับความสำคัญสูงสุดทางธุรกิจ การเป็นเจ้าของผลลัพธ์ด้านความปลอดภัยสำหรับลูกค้า และการพัฒนาผลิตภัณฑ์ชั้นนำด้วยความโปร่งใสและความรับผิดชอบขั้นสูงสุด

CISA วางแผนที่จะใช้ความพยายาม 5 ประการเพื่อบรรลุเป้าหมายที่ระบุไว้

CISA ได้ระบุความพยายาม 5 ประการในการรวมและเร่งรัดแผนงานข้างต้น:

  • การใช้ AI อย่างรับผิดชอบ: CISA ตั้งใจที่จะใช้เครื่องมือซอฟต์แวร์ที่เปิดใช้งาน AI เพื่อเสริมการป้องกันทางไซเบอร์และสนับสนุนโครงสร้างพื้นฐานที่สำคัญ ระบบและเครื่องมือทั้งหมดจะผ่านกระบวนการคัดเลือกที่เข้มงวด โดย CISA จะรับรองว่าระบบที่เกี่ยวข้องกับ AI มีความรับผิดชอบ ปลอดภัย มีจริยธรรม และปลอดภัยในการใช้งาน CISA จะใช้กระบวนการกำกับดูแลที่แข็งแกร่งซึ่งไม่เพียงแต่จะสอดคล้องกับกระบวนการจัดซื้อจัดจ้างของรัฐบาลกลาง กฎหมายและนโยบายที่เกี่ยวข้อง ความเป็นส่วนตัว และสิทธิพลเมืองและเสรีภาพ แต่ยังนำแนวทางสำหรับการประเมินโมเดล AI อย่างต่อเนื่องไปพร้อมๆ กับทบทวนแนวทางปฏิบัติด้านความปลอดภัยด้านไอทีเพื่อบูรณาการอย่างปลอดภัย เทคโนโลยี.

  • รับประกันระบบ AI: เพื่อสร้างการพัฒนาและการใช้งานซอฟต์แวร์ AI ที่ปลอดภัยและยืดหยุ่นมากขึ้น CISA วางแผนที่จะเป็นแชมป์ ปลอดภัยด้วยการออกแบบ ความคิดริเริ่ม พัฒนาแนวปฏิบัติที่ดีที่สุดด้านความปลอดภัยและคำแนะนำสำหรับผู้มีส่วนได้ส่วนเสียที่หลากหลาย (เช่น หน่วยงานรัฐบาลพลเรือนของรัฐบาลกลาง บริษัทภาคเอกชน รัฐบาลของรัฐ ท้องถิ่น ชนเผ่า และดินแดน) และผลักดันการนำแนวปฏิบัติการจัดการช่องโหว่ที่เข้มแข็งมาใช้ โดยระบุกระบวนการเปิดเผยช่องโหว่ และให้คำแนะนำสำหรับการทดสอบความปลอดภัยและการฝึกซ้อม Red Teaming สำหรับระบบ AI

  • ปกป้องโครงสร้างพื้นฐานที่สำคัญจากการใช้ AI ในทางที่ผิด: CISA จะร่วมมือกับหน่วยงานภาครัฐและพันธมิตรในอุตสาหกรรมเช่น ร่วมมือป้องกันภัยทางไซเบอร์ เพื่อพัฒนา ทดสอบ และประเมินเครื่องมือ AI และทำงานร่วมกันในการพัฒนา ภัยคุกคามจาก AI. CISA จะเผยแพร่เอกสารเพื่อสร้างความตระหนักรู้ถึงความเสี่ยงที่เกิดขึ้น และจะประเมินวิธีการบริหารความเสี่ยงเพื่อกำหนดกรอบการวิเคราะห์ที่เหมาะสมสำหรับการประเมินและการรักษาความเสี่ยงด้าน AI

  • ร่วมมือกับระหว่างหน่วยงาน พันธมิตรระหว่างประเทศ และประชาชนทั่วไป: เพื่อสร้างความตระหนักรู้ แบ่งปันข้อมูลภัยคุกคาม และเพื่อปรับปรุงความสามารถในการตอบสนองต่อเหตุการณ์และการสืบสวน CISA วางแผนที่จะส่งเสริมแนวทางการทำงานร่วมกัน เช่น คณะทำงาน AI การเข้าร่วมหรือมีส่วนร่วมในการประชุมระหว่างหน่วยงาน และการประสานงานอย่างใกล้ชิดกับหน่วยงานกระทรวงความมั่นคงแห่งมาตุภูมิ CISA จะทำงานข้ามหน่วยงานเพื่อให้แน่ใจว่านโยบายและกลยุทธ์ของตนสอดคล้องกับ ทั้งของรัฐบาล เข้าใกล้และจะมีส่วนร่วมกับพันธมิตรระหว่างประเทศเพื่อสนับสนุนการนำแนวทางปฏิบัติที่ดีที่สุดระดับสากลมาใช้สำหรับ AI ที่ปลอดภัย

  • ขยายความเชี่ยวชาญด้าน AI ในการทำงาน: คน การเฝ้าระวัง การกำกับดูแล และสัญชาตญาณเป็นสิ่งจำเป็นเสมอในการตรวจจับภัยคุกคามทางไซเบอร์ที่ใช้ AI และที่ไม่ใช่ AI และเพื่อให้แน่ใจว่าระบบ AI ปราศจากข้อผิดพลาด อคติ และการบงการ สัญชาตญาณและการเฝ้าระวังของมนุษย์สามารถเสริมสร้างได้ด้วยการริเริ่มการตระหนักรู้ด้านความปลอดภัยที่แข็งแกร่งเท่านั้น นี่คือเหตุผลที่ CISA วางแผนที่จะให้ความรู้แก่พนักงานเกี่ยวกับระบบและเทคนิคซอฟต์แวร์ AI อย่างต่อเนื่อง รับสมัครพนักงานที่มีความเชี่ยวชาญด้าน AI และดำเนินโครงการฝึกอบรมการรับรู้ด้านความปลอดภัย ซึ่งควรรวมการฝึกในสถานการณ์เพื่อให้แน่ใจว่าพนักงานเข้าใจแง่มุมทางกฎหมาย จริยธรรม และนโยบายของ AI ระบบต่างๆ เหนือและเหนือด้านเทคนิค 

ด้วยความคิดริเริ่มที่ระบุไว้ในแผนงาน CISA หน่วยงานหวังที่จะสร้างมาตรการรักษาความปลอดภัยทางไซเบอร์ที่แข็งแกร่งยิ่งขึ้นสำหรับประเทศ ปกป้องโครงสร้างพื้นฐานที่สำคัญจากการใช้ AI ในทางที่ผิด และจัดลำดับความสำคัญของการรักษาความปลอดภัยเป็นข้อกำหนดทางธุรกิจหลักในเครื่องมือและระบบที่ใช้ AI

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด