CISA และ NCSC เป็นผู้นำในการยกระดับมาตรฐานความปลอดภัย AI

CISA และ NCSC เป็นผู้นำในการยกระดับมาตรฐานความปลอดภัย AI

CISA และ NCSC เป็นผู้นำความพยายามในการยกระดับมาตรฐานความปลอดภัยของ AI PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

สำนักงานรักษาความปลอดภัยทางไซเบอร์แห่งชาติของสหราชอาณาจักร (NCSC) และหน่วยงานรักษาความปลอดภัยทางไซเบอร์และโครงสร้างพื้นฐานของสหรัฐอเมริกา (CISA) ได้เผยแพร่คำแนะนำอย่างเป็นทางการสำหรับการรักษาความปลอดภัยแอปพลิเคชัน AI ซึ่งเป็นเอกสารที่หน่วยงานต่างๆ หวังว่าจะช่วยให้มั่นใจว่าความปลอดภัยนั้นมีอยู่ในการพัฒนาของ AI

หน่วยสืบราชการลับของอังกฤษกล่าวว่า เอกสารแนะนำ เป็นแห่งแรกและได้รับการรับรองจากอีก 17 ประเทศ

ขับรถ สิ่งพิมพ์ เป็นความกลัวที่มีมายาวนานว่าความปลอดภัยจะถูกคิดในภายหลัง เนื่องจากผู้ให้บริการระบบ AI ทำงานเพื่อให้ทันกับการพัฒนา AI

Lindy Cameron ซีอีโอของ NCSC กล่าวเมื่อต้นปีนี้ว่าอุตสาหกรรมเทคโนโลยีมีประวัติในการทิ้งความปลอดภัยไว้เป็นข้อพิจารณารองเมื่อการพัฒนาทางเทคโนโลยีอยู่ในระดับสูง

ในวันนี้ แนวทางการพัฒนาระบบ AI ที่ปลอดภัย ดึงความสนใจไปที่ปัญหานี้อีกครั้ง โดยเสริมว่า AI จะต้องพบกับช่องโหว่ใหม่ๆ อย่างสม่ำเสมอเช่นกัน

“เรารู้ว่า AI กำลังพัฒนาอย่างรวดเร็วและมีความจำเป็นในการดำเนินการระหว่างประเทศร่วมกันทั่วทั้งรัฐบาลและอุตสาหกรรมเพื่อให้ทัน” คาเมรอนกล่าว

“แนวทางปฏิบัติเหล่านี้ถือเป็นก้าวสำคัญในการกำหนดความเข้าใจร่วมกันในระดับโลกอย่างแท้จริงเกี่ยวกับความเสี่ยงทางไซเบอร์และกลยุทธ์การบรรเทาผลกระทบที่เกี่ยวข้องกับ AI เพื่อให้แน่ใจว่าการรักษาความปลอดภัยไม่ใช่ข้อกำหนดในการพัฒนา แต่เป็นข้อกำหนดหลักตลอดทั้งระบบ 

“ฉันภูมิใจที่ NCSC กำลังนำความพยายามที่สำคัญในการยกระดับความปลอดภัยทางไซเบอร์ของ AI: พื้นที่ไซเบอร์ทั่วโลกที่ปลอดภัยยิ่งขึ้นจะช่วยให้เราทุกคนตระหนักถึงโอกาสที่ยอดเยี่ยมของเทคโนโลยีนี้ได้อย่างปลอดภัยและมั่นใจ”

แนวปฏิบัตินำมาใช้ ปลอดภัยด้วยการออกแบบ ซึ่งจะช่วยให้นักพัฒนา AI สามารถตัดสินใจได้อย่างปลอดภัยในโลกไซเบอร์มากที่สุดในทุกขั้นตอนของกระบวนการพัฒนา พวกเขาจะนำไปใช้กับแอปพลิเคชันที่สร้างขึ้นตั้งแต่เริ่มต้นและแอปพลิเคชันที่สร้างขึ้นจากทรัพยากรที่มีอยู่

รายชื่อประเทศทั้งหมดที่สนับสนุนแนวทางดังกล่าว พร้อมด้วยหน่วยงานด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้อง มีดังต่อไปนี้:

  • ออสเตรเลีย – ศูนย์ความปลอดภัยทางไซเบอร์แห่งออสเตรเลีย (ACSC) ของ Australian Signals Directorate 
  • แคนาดา - ศูนย์ความปลอดภัยทางไซเบอร์แห่งแคนาดา (CCCS) 
  • ชิลี – CSIRT ของรัฐบาลชิลี
  • เช็กเกีย – สำนักงานความปลอดภัยทางไซเบอร์และข้อมูลแห่งชาติของเช็กเกีย (NUKIB)
  • เอสโตเนีย – หน่วยงานระบบสารสนเทศแห่งเอสโตเนีย (RIA) และศูนย์รักษาความปลอดภัยทางไซเบอร์แห่งชาติเอสโตเนีย (NCSC-EE)
  • ฝรั่งเศส – หน่วยงานรักษาความปลอดภัยทางไซเบอร์ของฝรั่งเศส (ANSSI)
  • เยอรมนี – สำนักงานกลางด้านความปลอดภัยข้อมูล (BSI) ของเยอรมนี
  • อิสราเอล – คณะกรรมการไซเบอร์แห่งชาติอิสราเอล (INCD)
  • อิตาลี – สำนักงานความปลอดภัยทางไซเบอร์แห่งชาติอิตาลี (ACN)
  • ญี่ปุ่น – ศูนย์เตรียมความพร้อมเหตุการณ์และยุทธศาสตร์แห่งชาติของญี่ปุ่นเพื่อความปลอดภัยทางไซเบอร์ (NISC; สำนักเลขาธิการนโยบายวิทยาศาสตร์ เทคโนโลยี และนวัตกรรมของญี่ปุ่น สำนักงานคณะรัฐมนตรี
  • นิวซีแลนด์ – ศูนย์ความมั่นคงทางไซเบอร์แห่งชาตินิวซีแลนด์
  • ไนจีเรีย – สำนักงานพัฒนาเทคโนโลยีสารสนเทศแห่งชาติของไนจีเรีย (NITDA)
  • นอร์เวย์ – ศูนย์ความมั่นคงทางไซเบอร์แห่งชาตินอร์เวย์ (NCSC-NO)
  • โปแลนด์ – สถาบันวิจัยแห่งชาติ NASK (NASK) ของโปแลนด์
  • สาธารณรัฐเกาหลี – หน่วยข่าวกรองแห่งชาติสาธารณรัฐเกาหลี (NIS)
  • สิงคโปร์ – สำนักงานรักษาความปลอดภัยทางไซเบอร์แห่งสิงคโปร์ (CSA)
  • สหราชอาณาจักรบริเตนใหญ่และไอร์แลนด์เหนือ – National Cyber ​​Security Center (NCSC)
  • สหรัฐอเมริกา – หน่วยงานความปลอดภัยทางไซเบอร์และโครงสร้างพื้นฐาน (CISA); สำนักงานความมั่นคงแห่งชาติ (NSA; สำนักงานสืบสวนกลางแห่งสหรัฐอเมริกา (FBI)

หลักเกณฑ์ดังกล่าวแบ่งออกเป็นสี่ประเด็นสำคัญ โดยแต่ละประเด็นมีข้อเสนอแนะเฉพาะเพื่อปรับปรุงทุกขั้นตอนของวงจรการพัฒนา AI

1. การออกแบบที่ปลอดภัย

ตามชื่อเรื่อง แนวทางปฏิบัติระบุว่าควรคำนึงถึงความปลอดภัยก่อนที่การพัฒนาจะเริ่มขึ้น ขั้นตอนแรกคือการสร้างความตระหนักรู้ในหมู่พนักงานเกี่ยวกับความเสี่ยงด้านความปลอดภัยของ AI และการบรรเทาผลกระทบ 

นักพัฒนาควรจำลองภัยคุกคามต่อระบบของตน โดยคำนึงถึงการพิสูจน์ในอนาคตด้วย เช่น การคำนึงถึงภัยคุกคามด้านความปลอดภัยที่จะเกิดขึ้นเมื่อเทคโนโลยีดึงดูดผู้ใช้มากขึ้น และการพัฒนาทางเทคโนโลยีในอนาคต เช่น การโจมตีอัตโนมัติ

การตัดสินใจด้านความปลอดภัยควรทำในทุกการตัดสินใจด้านฟังก์ชันการทำงาน หากในขั้นตอนการออกแบบ นักพัฒนาทราบว่าส่วนประกอบ AI จะกระตุ้นการดำเนินการบางอย่าง จะต้องถามคำถามเกี่ยวกับวิธีที่ดีที่สุดในการรักษาความปลอดภัยให้กับกระบวนการนี้ ตัวอย่างเช่น หาก AI จะแก้ไขไฟล์ ก็ควรเพิ่มการป้องกันที่จำเป็นเพื่อจำกัดความสามารถนี้ให้อยู่ในขอบเขตความต้องการเฉพาะของแอปพลิเคชันเท่านั้น

2. การพัฒนาที่ปลอดภัย

การรักษาความปลอดภัยในขั้นตอนการพัฒนาประกอบด้วยคำแนะนำด้านความปลอดภัยของห่วงโซ่อุปทาน การบำรุงรักษาเอกสารประกอบที่แข็งแกร่ง การปกป้องทรัพย์สิน และการจัดการหนี้ทางเทคนิค

ความปลอดภัยของห่วงโซ่อุปทานเป็นจุดสนใจโดยเฉพาะสำหรับผู้ปกป้องในช่วงไม่กี่ปีที่ผ่านมา โดยมีการโจมตีที่มีชื่อเสียงมากมายที่นำไปสู่ เหยื่อจำนวนมาก

การตรวจสอบให้แน่ใจว่าผู้จำหน่ายที่ใช้โดยนักพัฒนา AI ได้รับการตรวจสอบและดำเนินการตามมาตรฐานความปลอดภัยระดับสูงเป็นสิ่งสำคัญ เช่นเดียวกับการมีแผนเตรียมพร้อมเมื่อระบบที่มีความสำคัญต่อภารกิจประสบปัญหา

3. การใช้งานที่ปลอดภัย

การปรับใช้ที่ปลอดภัยเกี่ยวข้องกับการปกป้องโครงสร้างพื้นฐานที่ใช้เพื่อรองรับระบบ AI รวมถึงการควบคุมการเข้าถึง API โมเดล และข้อมูล หากเหตุการณ์ด้านความปลอดภัยปรากฏขึ้น นักพัฒนาควรมีแผนรับมือและแก้ไขโดยถือว่าวันหนึ่งปัญหาจะเกิดขึ้น

ฟังก์ชันการทำงานของโมเดลและข้อมูลที่ได้รับการฝึกอบรมควรได้รับการปกป้องจากการโจมตีอย่างต่อเนื่อง และควรได้รับการเผยแพร่อย่างมีความรับผิดชอบ เฉพาะเมื่อได้รับการประเมินความปลอดภัยอย่างละเอียดเท่านั้น 

ระบบ AI ควรทำให้ผู้ใช้ปลอดภัยโดยค่าเริ่มต้นได้ง่าย โดยทำให้ตัวเลือกหรือการกำหนดค่าที่ปลอดภัยที่สุดเป็นค่าเริ่มต้นสำหรับผู้ใช้ทุกคน หากเป็นไปได้ ความโปร่งใสเกี่ยวกับวิธีการใช้ จัดเก็บ และเข้าถึงข้อมูลของผู้ใช้ก็เป็นสิ่งสำคัญเช่นกัน

4. การทำงานและการบำรุงรักษาที่ปลอดภัย

ส่วนสุดท้ายครอบคลุมถึงวิธีการรักษาความปลอดภัยระบบ AI หลังจากใช้งานแล้ว 

การตรวจสอบเป็นหัวใจสำคัญของสิ่งนี้ ไม่ว่าจะเป็นพฤติกรรมของระบบในการติดตามการเปลี่ยนแปลงที่อาจส่งผลกระทบต่อความปลอดภัย หรือสิ่งที่ป้อนเข้าสู่ระบบ การปฏิบัติตามข้อกำหนดด้านความเป็นส่วนตัวและการปกป้องข้อมูลจะต้องมีการตรวจสอบและ การเข้าสู่ระบบ อินพุตสำหรับสัญญาณของการใช้ในทางที่ผิด 

การอัปเดตควรออกโดยอัตโนมัติตามค่าเริ่มต้น เพื่อไม่ให้มีการใช้งานเวอร์ชันที่ล้าสมัยหรือมีช่องโหว่ สุดท้ายนี้ การมีส่วนร่วมอย่างแข็งขันในชุมชนการแบ่งปันข้อมูลสามารถช่วยให้อุตสาหกรรมสร้างความเข้าใจเกี่ยวกับภัยคุกคามด้านความปลอดภัยของ AI โดยให้เวลาแก่ผู้ปกป้องมากขึ้นในการวางแผนการบรรเทาผลกระทบ ซึ่งอาจจำกัดการหาประโยชน์ที่เป็นอันตรายที่อาจเกิดขึ้นได้ ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน