CISA의 로드맵: 신뢰할 수 있는 AI 개발을 위한 과정 계획

CISA의 로드맵: 신뢰할 수 있는 AI 개발을 위한 과정 계획

CISA의 로드맵: 신뢰할 수 있는 AI 개발 PlatoBlockchain 데이터 인텔리전스를 위한 과정 차트 작성. 수직 검색. 일체 포함.

해설
인공 지능 기술의 급속한 채택으로 인해 AI 전문가, 정책 입안자, 기술 업계의 거물, 국가 및 세계 지도자들 사이에서 심각한 사이버 우려가 촉발되었습니다. 이에 대해 CISA(사이버보안기반시설국)는 2023~2024 “인공지능을 위한 CISA 로드맵,” 안전하고 신뢰할 수 있는 AI 개발 및 사용을 목표로 합니다. 백악관 행정 명령 14110.

CISA는 다음과 같은 내용을 발표했습니다.2023~2025년 전략계획” 미국 대중을 위해 안전하고 탄력적인 인프라를 제공한다는 사명을 갖고 있습니다. AI 로드맵은 전략 계획에서 강조된 동일한 네 가지 목표를 적용한 것입니다.

  • 사이버 방어: AI 시스템은 조직이 새로운 사이버 위협과 지능형 사이버 위협에 대한 방어력을 강화하는 데 도움이 될 수 있지만, AI 기반 소프트웨어 시스템은 다음과 같은 이점을 제공합니다. 위험의 수 견고함을 필요로 하는 AI 방어. 로드맵은 AI의 유익한 활용을 촉진하는 동시에 AI 기반 위협으로부터 국가 시스템을 보호하는 것을 목표로 합니다.

  • 위험 감소 및 탄력성: 중요 인프라 조직에서는 자체 사이버 탄력성을 유지하고 강화하기 위해 점점 더 AI 시스템을 사용하고 있습니다. 로드맵을 통해 CISA는 다음과 같은 AI 기반 소프트웨어 시스템의 책임감 있고 위험을 인식하는 채택을 촉진하는 것을 목표로 합니다.의도적으로 보안” — 악용 가능한 결함을 소스에서 줄일 수 있도록 제품 개발 수명 주기의 설계 단계에서 보안이 구현됩니다.

  • 운영 협업: AI 기술이 확산됨에 따라 미국 시민과 중요 인프라 부문은 표적 위협에 노출될 수 있으며, 이를 위해서는 조직, 법 집행 기관 및 국제 파트너의 정보 공유와 조정된 대응이 필요할 수 있습니다. CISA는 관련 이해관계자 간의 조정 및 조정을 개선하는 데 도움이 되는 프레임워크를 개발할 계획입니다.

  • 대행사 통합: CISA는 기관 전체에서 AI 소프트웨어 시스템을 통합하고 통합하여 AI 시스템을 보다 일관되게 사용하는 데 도움을 주는 것을 목표로 합니다. CISA는 또한 AI 시스템을 최적으로 활용할 수 있는 인력을 모집하고 개발할 계획입니다.

AI 로드맵은 AI 소비자가 아닌 AI 개발자에게 보안 부담을 줍니다.

역사적으로 AI 소프트웨어 제조업체는 설계상 보안이 유지되는 제품을 만드는 데 반대해 AI 소비자에게 보안 부담을 주었습니다. CISA AI 로드맵은 AI 시스템 제조업체가 전체 개발 수명주기 동안 설계 원칙에 따라 보안을 채택하도록 요구합니다. 여기에는 설계에 따른 보안을 최우선 비즈니스 우선순위로 삼고, 고객을 위한 보안 결과에 대한 소유권을 갖고, 철저한 투명성과 책임감을 바탕으로 제품 개발을 선도하는 것이 포함됩니다.

CISA는 명시된 목표를 달성하기 위해 5가지 노력을 실행할 계획입니다.

CISA는 위의 로드맵을 통합하고 가속화하기 위한 5가지 노력을 확인했습니다.

  • AI의 책임감 있는 사용: CISA는 사이버 방어를 강화하고 중요 인프라를 지원하기 위해 AI 기반 소프트웨어 도구를 배포할 계획입니다. 모든 시스템과 도구는 엄격한 선택 과정을 거치며 CISA는 AI 관련 시스템이 책임감 있고 안전하며 윤리적이고 안전하게 사용할 수 있도록 보장합니다. CISA는 또한 연방 조달 프로세스, 해당 법률 및 정책, 개인 정보 보호, 민권 및 자유와 일치할 뿐만 아니라 AI 모델을 지속적으로 평가하는 동시에 IT 보안 관행을 검토하여 안전하게 통합하는 접근 방식을 채택하는 강력한 거버넌스 프로세스를 배포할 것입니다. 기술.

  • AI 시스템 보장: 더욱 안전하고 탄력적인 AI 소프트웨어 개발 및 구현을 구축하기 위해 CISA는 다음과 같은 목표를 달성할 계획입니다. 안전한 설계 다양한 이해관계자(예: 연방 민간 정부 기관, 민간 부문 회사, 주, 지방, 부족 및 자치령 정부)를 위한 보안 모범 사례 및 지침을 개발하고, 취약성 공개 프로세스를 지정하여 강력한 취약성 관리 관행 채택을 유도합니다. AI 시스템에 대한 보안 테스트 및 레드팀 훈련에 대한 지침을 제공합니다.

  • AI의 악의적인 사용으로부터 중요 인프라를 보호합니다. CISA는 다음과 같은 정부 기관 및 업계 파트너와 협력할 것입니다. 사이버방위협동조합 AI 도구를 개발, 테스트, 평가하고 발전을 위해 협력합니다. AI 위협. CISA는 새로운 위험에 대한 인식을 높이기 위한 자료를 출판하고 위험 관리 방법을 평가하여 AI 위험 평가 및 처리를 위한 적절한 분석 프레임워크를 결정합니다.

  • 기관 간, 국제 파트너 및 대중과 협력합니다. 인식을 제고하고, 위협 정보를 공유하고, 사고 대응 및 조사 역량을 개선하기 위해 CISA는 AI 실무 그룹, 기관 간 회의 참석 및 참여, 국토안보부 기관과의 긴밀한 조정 등의 협력적 접근 방식을 육성할 계획입니다. CISA는 기관 간 협력을 통해 정책과 전략이 범정부 보안 AI에 대한 국제 모범 사례 채택을 장려하기 위해 접근하고 국제 파트너를 참여시킬 것입니다.

  • 인력의 AI 전문성 확장: 휴먼 AI 기반 및 비AI 기반 사이버 위협을 탐지하고 AI 시스템에 오류, 편견 및 조작이 없도록 하려면 항상 경계, 감독 및 직관이 필요합니다. 인간의 직관과 경계는 강력한 보안 인식 이니셔티브를 통해서만 강화될 수 있습니다. 이것이 바로 CISA가 AI 소프트웨어 시스템 및 기술에 대해 인력을 지속적으로 교육하고, AI 전문 지식을 갖춘 직원을 채용하고, 직원이 AI 기반 소프트웨어의 법적, 윤리적, 정책적 측면을 이해할 수 있도록 상황별 연습을 포함하는 보안 인식 교육 프로그램을 실시할 계획인 이유입니다. 기술적인 측면을 넘어서는 시스템입니다. 

CISA 로드맵에 설명된 이니셔티브를 통해 기관은 국가를 위한 보다 강력한 사이버 보안 태세를 구축하고, AI의 악의적인 사용으로부터 중요 인프라를 보호하고, AI 기반 도구 및 시스템의 핵심 비즈니스 요구 사항으로 보안을 우선시하기를 희망합니다.

타임 스탬프 :

더보기 어두운 독서