Lộ trình của CISA: Vạch ra lộ trình phát triển AI đáng tin cậy

Lộ trình của CISA: Vạch ra lộ trình phát triển AI đáng tin cậy

CISA's Road Map: Charting a Course for Trustworthy AI Development PlatoBlockchain Data Intelligence. Vertical Search. Ai.

COMMENTARY
Việc áp dụng nhanh chóng công nghệ trí tuệ nhân tạo đã làm dấy lên mối lo ngại nghiêm trọng về mạng trong các chuyên gia AI, các nhà hoạch định chính sách, những người khổng lồ trong ngành công nghệ, các quốc gia và các nhà lãnh đạo thế giới. Để đáp lại, Cơ quan An ninh mạng và Cơ sở hạ tầng (CISA) đã công bố 2023–2024 “Lộ trình CISA cho trí tuệ nhân tạo,” với mục đích tạo ra sự phát triển và sử dụng AI an toàn và đáng tin cậy, theo chỉ dẫn của Sắc lệnh hành pháp 14110 của Nhà Trắng.

CISA đã phát hành “Kế hoạch chiến lược” giai đoạn 2023–2025 với sứ mệnh cung cấp cơ sở hạ tầng an toàn và linh hoạt cho công chúng Mỹ. Lộ trình AI là sự điều chỉnh của bốn mục tiêu tương tự được nêu bật trong kế hoạch chiến lược:

  • Phòng thủ mạng: Trong khi các hệ thống AI có thể giúp các tổ chức cải thiện khả năng phòng vệ của họ trước các mối đe dọa mạng mới nổi cũng như các mối đe dọa mạng tiên tiến, thì các hệ thống phần mềm dựa trên AI đặt ra một thách thức lớn. số lượng rủi ro điều đó đòi hỏi một sự mạnh mẽ Phòng thủ AI. Lộ trình này nhằm mục đích thúc đẩy việc sử dụng AI một cách có lợi, đồng thời bảo vệ các hệ thống của quốc gia khỏi các mối đe dọa dựa trên AI.

  • Giảm thiểu rủi ro và khả năng phục hồi: Cơ sở hạ tầng quan trọng các tổ chức đang ngày càng sử dụng hệ thống AI để duy trì và tăng cường khả năng phục hồi mạng của chính họ. Với lộ trình của mình, CISA đặt mục tiêu thúc đẩy việc áp dụng có trách nhiệm và nhận thức được rủi ro đối với các hệ thống phần mềm dựa trên AI “an toàn bởi thiết kế” — nơi bảo mật được triển khai trong giai đoạn thiết kế của vòng đời phát triển sản phẩm để có thể giảm thiểu các sai sót có thể khai thác ngay tại nguồn.

  • Hợp tác điều hành: Khi công nghệ AI ngày càng phổ biến, công dân Hoa Kỳ và các lĩnh vực cơ sở hạ tầng quan trọng có thể phải đối mặt với các mối đe dọa có mục tiêu, điều này có thể yêu cầu các tổ chức, cơ quan thực thi pháp luật và đối tác quốc tế phải chia sẻ thông tin và phối hợp ứng phó. CISA có kế hoạch phát triển một khuôn khổ giúp cải thiện sự liên kết và phối hợp giữa các bên liên quan.

  • Thống nhất cơ quan: CISA đặt mục tiêu thống nhất và tích hợp các hệ thống phần mềm AI trong toàn cơ quan, điều này sẽ giúp cơ quan này sử dụng các hệ thống AI một cách mạch lạc hơn. CISA cũng có kế hoạch tuyển dụng và phát triển lực lượng lao động có khả năng khai thác tối ưu các hệ thống AI.

Lộ trình AI đặt gánh nặng bảo mật lên các nhà phát triển AI, chứ không phải người tiêu dùng AI

Trong lịch sử, các nhà sản xuất phần mềm AI đã phản đối việc xây dựng các sản phẩm được thiết kế an toàn, đặt gánh nặng bảo mật lên người tiêu dùng AI. Lộ trình AI của CISA yêu cầu các nhà sản xuất hệ thống AI áp dụng các nguyên tắc thiết kế an toàn trong toàn bộ vòng đời phát triển. Điều này bao gồm việc đảm bảo an toàn bằng thiết kế là ưu tiên kinh doanh hàng đầu, nắm quyền sở hữu các kết quả bảo mật cho khách hàng và dẫn đầu việc phát triển sản phẩm với tính minh bạch và trách nhiệm giải trình triệt để.

CISA có kế hoạch thực hiện năm dòng nỗ lực để đạt được các mục tiêu đã đề ra

CISA đã xác định năm dòng nỗ lực để thống nhất và đẩy nhanh lộ trình trên:

  • Sử dụng AI có trách nhiệm: CISA dự định triển khai các công cụ phần mềm hỗ trợ AI để tăng cường phòng thủ mạng và hỗ trợ cơ sở hạ tầng quan trọng. Tất cả các hệ thống và công cụ sẽ trải qua quy trình lựa chọn nghiêm ngặt, trong đó CISA sẽ đảm bảo rằng các hệ thống liên quan đến AI có trách nhiệm, bảo mật, đạo đức và an toàn khi sử dụng. CISA cũng sẽ triển khai các quy trình quản trị mạnh mẽ, không chỉ phù hợp với quy trình mua sắm liên bang, luật và chính sách hiện hành, quyền riêng tư, quyền và tự do dân sự mà còn áp dụng cách tiếp cận để đánh giá liên tục các mô hình AI trong khi xem xét các biện pháp bảo mật CNTT để tích hợp an toàn công nghệ.

  • Đảm bảo hệ thống AI: Để xây dựng và triển khai phần mềm AI an toàn và linh hoạt hơn, CISA có kế hoạch hướng tới thiết kế an toàn các sáng kiến, phát triển các biện pháp thực hành tốt nhất về bảo mật và hướng dẫn cho nhiều bên liên quan (ví dụ: các cơ quan chính phủ dân sự liên bang, các công ty thuộc khu vực tư nhân, chính quyền tiểu bang, địa phương, bộ lạc và lãnh thổ) và thúc đẩy việc áp dụng các biện pháp quản lý lỗ hổng mạnh mẽ, chỉ định quy trình tiết lộ lỗ hổng và cung cấp hướng dẫn kiểm tra bảo mật cũng như các bài tập về đội đỏ cho hệ thống AI.

  • Bảo vệ cơ sở hạ tầng quan trọng khỏi việc sử dụng AI có mục đích: CISA sẽ hợp tác với các cơ quan chính phủ và các đối tác trong ngành như Hợp tác Phòng thủ Không gian mạng để phát triển, thử nghiệm và đánh giá các công cụ AI và hợp tác phát triển Các mối đe dọa AI. CISA sẽ xuất bản các tài liệu nhằm nâng cao nhận thức về các rủi ro mới nổi và cũng sẽ đánh giá các phương pháp quản lý rủi ro để xác định khung phân tích phù hợp nhằm đánh giá và xử lý rủi ro AI.

  • Phối hợp với các cơ quan liên ngành, đối tác quốc tế và công chúng: Để nâng cao nhận thức, chia sẻ thông tin về mối đe dọa và cải thiện khả năng điều tra và ứng phó sự cố, CISA có kế hoạch thúc đẩy các phương pháp hợp tác như nhóm làm việc AI, tham dự hoặc tham gia các cuộc họp liên cơ quan và phối hợp chặt chẽ với các đơn vị của Bộ An ninh Nội địa. CISA sẽ làm việc liên ngành để đảm bảo các chính sách và chiến lược của mình phù hợp với toàn bộ chính phủ tiếp cận và sẽ thu hút các đối tác quốc tế để khuyến khích áp dụng các thông lệ quốc tế tốt nhất cho AI an toàn.

  • Mở rộng chuyên môn AI trong lực lượng lao động: Con người luôn cần cảnh giác, giám sát và trực giác để phát hiện các mối đe dọa mạng dựa trên AI và không dựa trên AI, đồng thời đảm bảo hệ thống AI không có lỗi, sai lệch và thao túng. Trực giác và sự cảnh giác của con người chỉ có thể được tăng cường nhờ các sáng kiến ​​nâng cao nhận thức về an ninh mạnh mẽ. Đây là lý do tại sao CISA có kế hoạch liên tục đào tạo lực lượng lao động về các hệ thống và kỹ thuật phần mềm AI, tuyển dụng nhân viên có chuyên môn về AI và thực hiện các chương trình đào tạo nâng cao nhận thức về bảo mật, bao gồm các bài tập tình huống để đảm bảo nhân viên hiểu các khía cạnh pháp lý, đạo đức và chính sách của dựa trên AI. hệ thống, hơn và trên các khía cạnh kỹ thuật. 

Thông qua các sáng kiến ​​được nêu trong lộ trình CISA, cơ quan này hy vọng sẽ xây dựng một thế trận an ninh mạng mạnh mẽ hơn cho quốc gia, bảo vệ cơ sở hạ tầng quan trọng khỏi việc sử dụng AI có mục đích xấu và ưu tiên bảo mật như một yêu cầu kinh doanh cốt lõi trong các công cụ và hệ thống dựa trên AI.

Dấu thời gian:

Thêm từ Đọc tối