CISA ve NCSC, yapay zeka güvenlik standartlarını yükseltme çabalarına öncülük ediyor

CISA ve NCSC, yapay zeka güvenlik standartlarını yükseltme çabalarına öncülük ediyor

CISA ve NCSC, PlatoBlockchain Veri Zekası yapay zeka güvenlik standartlarını yükseltme çabalarına öncülük ediyor. Dikey Arama. Ai.

Birleşik Krallık'ın Ulusal Siber Güvenlik Ajansı (NCSC) ve ABD'nin Siber Güvenlik ve Altyapı Güvenliği Ajansı (CISA), yapay zeka uygulamalarının güvenliğini sağlamaya yönelik resmi kılavuz yayınladı; kurumların, güvenliğin yapay zeka gelişiminin doğasında yer aldığını garanti edeceğini umduğu bir belge.

İngiliz casus teşkilatı diyor ki rehberlik belgesi türünün ilk örneği olup 17 ülke tarafından daha desteklenmektedir.

Sürüş yayın Yapay Zeka sistemleri sağlayıcıları Yapay Zeka gelişiminin hızına ayak uydurmaya çalışırken güvenliğin sonradan akla gelen bir düşünce olacağına dair uzun süredir devam eden korkudur.

NCSC CEO'su Lindy Cameron, bu yılın başlarında teknoloji endüstrisinin, teknolojik gelişme hızı yüksek olduğunda güvenliği ikinci planda tutma geçmişine sahip olduğunu söyledi.

Bugün, Güvenli Yapay Zeka Sistemi Geliştirme Yönergeleri bu konuya bir kez daha dikkat çekerek yapay zekanın da her zaman yeni güvenlik açıklarına maruz kalacağını ekledi.

Cameron, "Yapay zekanın olağanüstü bir hızla geliştiğini ve buna ayak uydurmak için hükümetler ve endüstri genelinde ortak uluslararası eyleme ihtiyaç olduğunu biliyoruz" dedi.

"Bu Kılavuz İlkeler, güvenliğin geliştirmenin bir eki değil, baştan sona temel bir gereklilik olmasını sağlamak için yapay zeka etrafındaki siber riskler ve azaltma stratejilerine ilişkin gerçek anlamda küresel, ortak bir anlayışın şekillendirilmesinde önemli bir adıma işaret ediyor. 

"NCSC'nin AI siber güvenlik çıtasını yükseltmeye yönelik önemli çabalara öncülük etmesinden gurur duyuyorum: daha güvenli bir küresel siber alan, hepimizin bu teknolojinin harika fırsatlarını güvenli ve kendinden emin bir şekilde gerçekleştirmesine yardımcı olacaktır."

Kılavuzlar bir secure-by-tasarım İdeal olarak AI geliştiricilerinin geliştirme sürecinin tüm aşamalarında en siber güvenlik kararlarını almasına yardımcı olan bir yaklaşım. Bunlar sıfırdan oluşturulan uygulamalara ve mevcut kaynaklar üzerine oluşturulan uygulamalara uygulanacaktır.

Kılavuzu onaylayan ülkelerin ve ilgili siber güvenlik kurumlarının tam listesi aşağıdadır:

  • Avustralya - Avustralya Sinyal Müdürlüğü'nün Avustralya Siber Güvenlik Merkezi (ACSC) 
  • Kanada – Kanada Siber Güvenlik Merkezi (CCCS) 
  • Şili - Şili Hükümeti CSIRT
  • Çekya - Çekya'nın Ulusal Siber ve Bilgi Güvenliği Ajansı (NUKIB)
  • Estonya - Estonya Bilgi Sistemi Otoritesi (RIA) ve Estonya Ulusal Siber Güvenlik Merkezi (NCSC-EE)
  • Fransa – Fransız Siber Güvenlik Ajansı (ANSSI)
  • Almanya – Almanya Federal Bilgi Güvenliği Dairesi (BSI)
  • İsrail - İsrail Ulusal Siber Müdürlüğü (INCD)
  • İtalya – İtalyan Ulusal Siber Güvenlik Ajansı (ACN)
  • Japonya - Japonya Ulusal Siber Güvenlik Olaylarına Hazırlık ve Strateji Merkezi (NISC; Japonya'nın Bilim, Teknoloji ve Yenilik Politikası Sekreterliği, Kabine Ofisi)
  • Yeni Zelanda – Yeni Zelanda Ulusal Siber Güvenlik Merkezi
  • Nijerya - Nijerya'nın Ulusal Bilgi Teknolojisi Geliştirme Ajansı (NITDA)
  • Norveç - Norveç Ulusal Siber Güvenlik Merkezi (NCSC-NO)
  • Polonya - Polonya'nın NASK Ulusal Araştırma Enstitüsü (NASK)
  • Kore Cumhuriyeti – Kore Cumhuriyeti Ulusal İstihbarat Servisi (NIS)
  • Singapur - Singapur Siber Güvenlik Ajansı (CSA)
  • Büyük Britanya ve Kuzey İrlanda Birleşik Krallığı – Ulusal Siber Güvenlik Merkezi (NCSC)
  • Amerika Birleşik Devletleri – Siber Güvenlik ve Altyapı Ajansı (CISA); Ulusal Güvenlik Ajansı (NSA; Federal Soruşturma Bürosu (FBI)

Yönergeler, her biri yapay zeka geliştirme döngüsünün her aşamasını iyileştirmeye yönelik özel öneriler içeren dört temel odak alanına bölünmüştür.

1. Güvenli tasarım

Başlıktan da anlaşılacağı gibi, yönergeler güvenliğin geliştirme başlamadan önce bile dikkate alınması gerektiğini belirtmektedir. İlk adım, personel arasında yapay zeka güvenlik riskleri ve bunların azaltılması konusunda farkındalık yaratmaktır. 

Geliştiriciler daha sonra, teknoloji daha fazla kullanıcı çektikçe gelecek daha fazla sayıda güvenlik tehdidini ve otomatik saldırılar gibi gelecekteki teknolojik gelişmeleri hesaba katarak bunları geleceğe hazır hale getirmeyi göz önünde bulundurarak sistemlerine yönelik tehditleri modellemelidir.

Her işlevsellik kararında güvenlik kararları da alınmalıdır. Tasarım aşamasında bir geliştirici, yapay zeka bileşenlerinin belirli eylemleri tetikleyeceğinin farkındaysa, bu sürecin en iyi nasıl güvence altına alınabileceğine ilişkin soruların sorulması gerekir. Örneğin, yapay zeka dosyaları değiştirecekse bu yeteneği yalnızca uygulamanın özel ihtiyaçlarının sınırlarıyla sınırlamak için gerekli korumalar eklenmelidir.

2. Güvenli gelişim

Geliştirme aşamasının güvence altına alınması, tedarik zinciri güvenliği, sağlam belgelerin sürdürülmesi, varlıkların korunması ve teknik borcun yönetilmesine ilişkin rehberliği içerir.

Tedarik zinciri güvenliği, son birkaç yıldır savunucular için özel bir odak noktası haline geldi ve çok sayıda yüksek profilli saldırı, çok sayıda kurban

Yapay zeka geliştiricileri tarafından kullanılan satıcıların doğrulanmasını ve yüksek güvenlik standartlarında çalışmasını sağlamak, kritik görev sistemlerinde sorunlar yaşandığında planların yapılması da önemlidir.

3. Güvenli dağıtım

Güvenli dağıtım, API'ler, modeller ve veriler için erişim kontrolleri de dahil olmak üzere bir yapay zeka sistemini desteklemek için kullanılan altyapının korunmasını içerir. Bir güvenlik olayının ortaya çıkması durumunda geliştiricilerin, sorunların bir gün ortaya çıkacağını varsayan müdahale ve iyileştirme planlarının da olması gerekir.

Modelin işlevselliği ve üzerinde eğitim aldığı veriler sürekli olarak saldırılara karşı korunmalı ve yalnızca kapsamlı güvenlik değerlendirmelerine tabi tutulduklarında sorumlu bir şekilde yayınlanmalıdır. 

Yapay zeka sistemleri aynı zamanda kullanıcıların varsayılan olarak güvende olmasını da kolaylaştırmalı, mümkün olan yerlerde en güvenli seçeneği veya yapılandırmayı tüm kullanıcılar için varsayılan hale getirmelidir. Kullanıcı verilerinin nasıl kullanıldığı, saklandığı ve erişildiği konusunda şeffaflık da çok önemlidir.

4. Güvenli çalıştırma ve bakım

Son bölüm, AI sistemlerinin konuşlandırıldıktan sonra nasıl güvence altına alınacağını kapsar. 

İster sistemin güvenliği etkileyebilecek değişiklikleri izleme davranışı olsun, isterse sisteme neyin girildiği olsun, izleme, bunların çoğunun merkezinde yer alır. Gizlilik ve veri koruma gerekliliklerinin yerine getirilmesi izleme ve günlüğü Kötüye kullanım işaretleri için girdiler. 

Güncel olmayan veya güvenlik açığı bulunan sürümlerin kullanılmaması için güncellemelerin varsayılan olarak otomatik olarak yayınlanması gerekir. Son olarak, bilgi paylaşımı topluluklarında aktif bir katılımcı olmak, sektörün yapay zeka güvenlik tehditlerine ilişkin bir anlayış geliştirmesine yardımcı olabilir ve savunmacılara, potansiyel kötü niyetli istismarları sınırlayabilecek azaltımlar tasarlamaları için daha fazla zaman sunabilir. ®

Zaman Damgası:

Den fazla Kayıt