CISA dan NCSC memimpin upaya untuk meningkatkan standar keamanan AI

CISA dan NCSC memimpin upaya untuk meningkatkan standar keamanan AI

CISA dan NCSC memimpin upaya untuk meningkatkan standar keamanan AI PlatoBlockchain Data Intelligence. Pencarian Vertikal. Ai.

Badan Keamanan Siber Nasional (NCSC) di Inggris dan Badan Keamanan Siber dan Infrastruktur (CISA) di AS telah menerbitkan panduan resmi untuk mengamankan aplikasi AI โ€“ sebuah dokumen yang diharapkan dapat memastikan bahwa keselamatan melekat dalam pengembangan AI.

Badan mata-mata Inggris mengatakan dokumen pedoman adalah yang pertama dari jenisnya dan didukung oleh 17 negara lainnya.

Mengemudi publikasi adalah ketakutan jangka panjang bahwa keamanan akan menjadi hal yang tidak penting karena penyedia sistem AI berupaya mengimbangi laju perkembangan AI.

Lindy Cameron, CEO NCSC, awal tahun ini mengatakan industri teknologi memiliki sejarah meninggalkan keamanan sebagai pertimbangan sekunder ketika laju perkembangan teknologi sedang tinggi.

Saat ini, Pedoman Pengembangan Sistem AI yang Aman kembali menyoroti masalah ini, dan menambahkan bahwa AI juga akan selalu terkena kerentanan baru.

โ€œKami tahu bahwa AI berkembang dengan kecepatan yang fenomenal dan diperlukan tindakan internasional yang terpadu, baik antar pemerintah maupun industri, untuk mengimbanginya,โ€ kata Cameron.

โ€œPedoman ini menandai sebuah langkah signifikan dalam membentuk pemahaman bersama yang benar-benar global mengenai risiko dunia maya dan strategi mitigasi seputar AI untuk memastikan bahwa keamanan bukanlah suatu hal yang wajib dalam pembangunan, namun merupakan persyaratan inti dalam keseluruhannya. 

โ€œSaya bangga bahwa NCSC memimpin upaya penting untuk meningkatkan standar keamanan siber AI: ruang siber global yang lebih aman akan membantu kita semua mewujudkan peluang luar biasa dari teknologi ini dengan aman dan percaya diri.โ€

Pedoman ini mengadopsi a aman-oleh-desain pendekatan ini, idealnya membantu pengembang AI membuat keputusan paling aman di dunia maya di semua tahap proses pengembangan. Aturan ini akan diterapkan pada aplikasi yang dibangun dari awal dan pada aplikasi yang dibangun berdasarkan sumber daya yang ada.

Daftar lengkap negara-negara yang mendukung pedoman ini, beserta badan keamanan siber masing-masing, adalah sebagai berikut:

  • Australia โ€“ Pusat Keamanan Siber Australia (ACSC) Direktorat Sinyal Australia 
  • Kanada โ€“ Pusat Keamanan Siber Kanada (CCCS) 
  • Chili โ€“ CSIRT Pemerintah Chili
  • Czechia โ€“ Badan Keamanan Siber dan Informasi Nasional Ceko (NUKIB)
  • Estonia โ€“ Otoritas Sistem Informasi Estonia (RIA) dan Pusat Keamanan Siber Nasional Estonia (NCSC-EE)
  • Prancis โ€“ Badan Keamanan Siber Prancis (ANSSI)
  • Jerman โ€“ Kantor Federal untuk Keamanan Informasi (BSI) Jerman
  • Israel โ€“ Direktorat Siber Nasional Israel (INCD)
  • Italia โ€“ Badan Keamanan Siber Nasional Italia (ACN)
  • Jepang โ€“ Pusat Kesiapsiagaan dan Strategi Insiden dan Strategi Keamanan Siber Nasional Jepang (NISC; Sekretariat Kebijakan Sains, Teknologi dan Inovasi Jepang, Kantor Kabinet
  • Selandia Baru โ€“ Pusat Keamanan Siber Nasional Selandia Baru
  • Nigeria โ€“ Badan Pengembangan Teknologi Informasi Nasional Nigeria (NITDA)
  • Norwegia โ€“ Pusat Keamanan Siber Nasional Norwegia (NCSC-NO)
  • Polandia โ€“ NASK National Research Institute (NASK) Polandia
  • Republik Korea โ€“ Badan Intelijen Nasional Republik Korea (NIS)
  • Singapura โ€“ Badan Keamanan Siber Singapura (CSA)
  • Kerajaan Inggris Raya dan Irlandia Utara โ€“ Pusat Keamanan Siber Nasional (NCSC)
  • Amerika Serikat โ€“ Badan Keamanan Siber dan Infrastruktur (CISA); Badan Keamanan Nasional (NSA; Biro Investigasi Federal (FBI)

Pedoman ini dipecah menjadi empat area fokus utama, yang masing-masing berisi saran spesifik untuk meningkatkan setiap tahap siklus pengembangan AI.

1. Desain aman

Sesuai dengan judulnya, pedoman tersebut menyatakan bahwa keamanan harus dipertimbangkan bahkan sebelum pembangunan dimulai. Langkah pertama adalah meningkatkan kesadaran di kalangan staf mengenai risiko keamanan AI dan mitigasinya. 

Pengembang kemudian harus membuat model ancaman terhadap sistem mereka, dengan mempertimbangkan hal ini juga untuk masa depan, seperti memperhitungkan semakin besarnya jumlah ancaman keamanan yang akan datang seiring dengan semakin banyaknya pengguna yang tertarik pada teknologi, dan perkembangan teknologi di masa depan seperti serangan otomatis.

Keputusan keamanan juga harus dibuat dengan setiap keputusan fungsionalitas. Jika pada tahap desain pengembang menyadari bahwa komponen AI akan memicu tindakan tertentu, pertanyaan perlu diajukan tentang cara terbaik untuk mengamankan proses ini. Misalnya, jika AI akan memodifikasi file, maka perlindungan yang diperlukan harus ditambahkan untuk membatasi kemampuan ini hanya pada batasan kebutuhan spesifik aplikasi.

2. Pembangunan yang aman

Mengamankan tahap pengembangan mencakup panduan tentang keamanan rantai pasokan, pemeliharaan dokumentasi yang kuat, perlindungan aset, dan pengelolaan utang teknis.

Keamanan rantai pasokan telah menjadi titik fokus khusus bagi para pembela HAM selama beberapa tahun terakhir, dengan serentetan serangan tingkat tinggi yang menyebabkan jumlah korban yang sangat besar

Memastikan vendor yang digunakan oleh pengembang AI terverifikasi dan beroperasi dengan standar keamanan yang tinggi adalah hal yang penting, begitu pula dengan memiliki rencana ketika sistem yang sangat penting mengalami masalah.

3. Penerapan yang aman

Penerapan yang aman melibatkan perlindungan infrastruktur yang digunakan untuk mendukung sistem AI, termasuk kontrol akses untuk API, model, dan data. Jika terjadi insiden keamanan, pengembang juga harus memiliki rencana respons dan remediasi yang berasumsi suatu hari nanti masalah akan muncul.

Fungsionalitas model dan data yang dilatih harus dilindungi dari serangan secara terus-menerus, dan harus dilepaskan secara bertanggung jawab, hanya jika telah melalui penilaian keamanan menyeluruh. 

Sistem AI juga harus memudahkan pengguna untuk merasa aman secara default, jika memungkinkan menjadikan opsi atau konfigurasi paling aman sebagai default untuk semua pengguna. Transparansi tentang bagaimana data pengguna digunakan, disimpan, dan diakses juga merupakan kuncinya.

4. Pengoperasian dan pemeliharaan yang aman

Bagian terakhir membahas cara mengamankan sistem AI setelah diterapkan. 

Pemantauan adalah inti dari hal ini, baik itu perilaku sistem untuk melacak perubahan yang mungkin berdampak pada keamanan, atau apa yang dimasukkan ke dalam sistem. Pemenuhan persyaratan privasi dan perlindungan data memerlukan pemantauan dan penebangan masukan untuk tanda-tanda penyalahgunaan. 

Pembaruan juga harus dikeluarkan secara otomatis secara default sehingga versi yang kedaluwarsa atau rentan tidak digunakan. Terakhir, menjadi peserta aktif dalam komunitas berbagi informasi dapat membantu industri membangun pemahaman tentang ancaman keamanan AI, memberikan lebih banyak waktu bagi para pembela HAM untuk merancang mitigasi yang pada gilirannya dapat membatasi potensi eksploitasi berbahaya. ยฎ

Stempel Waktu:

Lebih dari Pendaftaran