Các lỗ hổng nghiêm trọng chưa được vá sẽ mở ra các mô hình AI để tiếp quản

Các lỗ hổng nghiêm trọng chưa được vá sẽ mở ra các mô hình AI để tiếp quản

Các lỗ hổng nghiêm trọng chưa được vá, mở các mô hình AI để tiếp quản trí tuệ dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Các nhà nghiên cứu đã xác định được gần chục lỗ hổng nghiêm trọng trong cơ sở hạ tầng được sử dụng bởi các mô hình AI (cộng với ba lỗi ở mức độ nghiêm trọng cao và hai lỗi ở mức độ trung bình), có thể khiến các công ty gặp rủi ro khi chạy đua tận dụng AI. Một số trong số đó vẫn chưa được vá.

Các nền tảng bị ảnh hưởng được sử dụng để lưu trữ, triển khai và chia sẻ các mô hình ngôn ngữ lớn (LLM) cũng như các nền tảng ML và AI khác. Chúng bao gồm Ray, được sử dụng trong việc đào tạo phân tán các mô hình học máy; MLflow, nền tảng vòng đời máy học; ModelDB, một nền tảng quản lý máy học; Và H20 phiên bản 3, một nền tảng mã nguồn mở dành cho học máy dựa trên Java.

MCông ty bảo mật học tập achine Protect AI đã tiết lộ kết quả vào ngày 16 tháng XNUMX như một phần của chương trình thưởng lỗi dành riêng cho AI của họ, Huntr. Nó không cóđã thông báo cho các nhà bảo trì và nhà cung cấp phần mềm về các lỗ hổng, cho phép họ có 45 ngày để vá các vấn đề.

Mỗi vấn đề đã được gán một mã nhận dạng CVE và trong khi nhiều vấn đề đã được khắc phục, những vấn đề khác vẫn chưa được vá, trong trường hợp đó, Protect AI đã đề xuất một giải pháp thay thế trong lời khuyên của nó.

Lỗi AI gây rủi ro cao cho các tổ chức

Theo Protect AI, các lỗ hổng trong hệ thống AI có thể cho phép kẻ tấn công truy cập trái phép vào các mô hình AI, cho phép chúng sử dụng các mô hình đó cho mục tiêu riêng của mình.

Tuy nhiên, họ cũng có thể cung cấp cho họ một cánh cửa vào phần còn lại của mạng, Sean Morgan, kiến ​​trúc sư trưởng tại Protect AI cho biết. Chẳng hạn, việc xâm phạm máy chủ và đánh cắp thông tin xác thực từ các dịch vụ AI mã thấp là hai khả năng để truy cập ban đầu.

Ông nói: “Các máy chủ suy luận có thể có các điểm cuối có thể truy cập để người dùng có thể sử dụng các mô hình ML [từ xa], nhưng có rất nhiều cách để truy cập vào mạng của ai đó”. “Các hệ thống ML mà chúng tôi đang nhắm mục tiêu [với chương trình tiền thưởng lỗi] thường có các đặc quyền nâng cao và do đó, điều rất quan trọng là nếu ai đó có thể truy cập vào mạng của bạn thì họ không thể nhanh chóng chuyển đặc quyền thành một hệ thống rất nhạy cảm. .”

Ví dụ: một sự cố nghiêm trọng liên quan đến tệp cục bộ (hiện đã được vá) trong API dành cho nền tảng học tập phân tán Ray cho phép kẻ tấn công đọc bất kỳ tệp nào trên hệ thống. Một vấn đề khác trong nền tảng H20 (cũng đã được khắc phục) cho phép thực thi mã thông qua việc nhập mô hình AI.

Rủi ro không phải là lý thuyết: Các công ty lớn đã bắt tay vào các chiến dịch tích cực để tìm ra các mô hình AI hữu ích và áp dụng chúng vào thị trường cũng như hoạt động của họ. Ví dụ: các ngân hàng đã sử dụng máy học và AI để xử lý thế chấp và chống rửa tiền.

Trong khi tìm kiếm lỗ hổng trong các hệ thống AI này Daryan Dehghanpisheh, chủ tịch và đồng sáng lập của Protect AI cho biết, có thể dẫn đến xâm phạm cơ sở hạ tầng, đánh cắp tài sản trí tuệ cũng là một mục tiêu lớn.

Ông nói: “Gián điệp công nghiệp là một thành phần quan trọng và trong cuộc chiến về AI và ML, các mô hình là tài sản sở hữu trí tuệ rất có giá trị”. “Hãy nghĩ về số tiền được chi cho việc đào tạo một mô hình hàng ngày và khi bạn đang nói về hàng tỷ thông số, v.v., rất nhiều khoản đầu tư, chỉ là vốn thuần túy dễ bị xâm phạm hoặc đánh cắp.”

Dane Sherrets, kiến ​​trúc sư giải pháp cấp cao tại HackerOne, cho biết việc chiến đấu với các hoạt động khai thác mới chống lại cơ sở hạ tầng làm nền tảng cho các tương tác ngôn ngữ tự nhiên mà mọi người có với các hệ thống AI như ChatGPT sẽ còn có tác động lớn hơn. Đó là bởi vì khi tội phạm mạng có thể kích hoạt các loại lỗ hổng này, hiệu quả của hệ thống AI sẽ tạo ra tác động lớn hơn nhiều.

Ông nói: “Những cuộc tấn công này “có thể khiến hệ thống tiết lộ dữ liệu nhạy cảm hoặc bí mật hoặc giúp tác nhân độc hại có quyền truy cập vào phần phụ trợ của hệ thống”. “Các lỗ hổng AI như ngộ độc dữ liệu đào tạo cũng có thể gây ra hiệu ứng gợn sóng đáng kể, dẫn đến việc phổ biến rộng rãi các kết quả đầu ra sai sót hoặc độc hại”.

Bảo mật cho cơ sở hạ tầng AI: Thường bị bỏ qua

Sau sự ra đời của ChatGPT một năm trước, các công nghệ và dịch vụ dựa trên AI - đặc biệt là AI tạo sinh (GenAI) - đã phát triển. Theo sau nó, một nhiều cuộc tấn công thù địch đã được phát triển để có thể nhắm mục tiêu vào các hệ thống AI và máy học cũng như hoạt động của chúng. Ví dụ, vào ngày 15 tháng XNUMX, công ty bảo mật AI Adversa AI
tiết lộ một số cuộc tấn công vào các hệ thống dựa trên GPT bao gồm cả việc nhắc nhở rò rỉ và liệt kê các API mà hệ thống có quyền truy cập.

Tuy nhiên, việc tiết lộ lỗi của ProtectAI nhấn mạnh thực tế rằng các công cụ và cơ sở hạ tầng hỗ trợ quá trình học máy và hoạt động AI cũng có thể trở thành mục tiêu. Và thông thường, các doanh nghiệp đã áp dụng các công cụ và quy trình làm việc dựa trên AI mà không thường xuyên tham khảo ý kiến ​​các nhóm bảo mật thông tin.

“Giống như bất kỳ chu kỳ cường điệu hóa công nghệ cao nào, mọi người sẽ triển khai hệ thống, đưa ra các ứng dụng và tạo ra những trải nghiệm mới để đáp ứng nhu cầu của doanh nghiệp và thị trường, và thường sẽ bỏ qua vấn đề bảo mật và tạo ra những thứ này.” Dehghanpisheh nói. “Nhưng những điều chúng tôi [chuyên gia an ninh mạng] đang làm cho các trung tâm dữ liệu truyền thống không nhất thiết giúp bạn an toàn trên đám mây và ngược lại.”

Protect AI đã sử dụng nền tảng tiền thưởng lỗi của mình, có tên là Huntr, để thu hút hàng nghìn nhà nghiên cứu gửi thông tin về lỗ hổng bảo mật cho các nền tảng học máy khác nhau, nhưng cho đến nay, hoạt động săn lỗi trong lĩnh vực này vẫn còn ở giai đoạn sơ khai. Tuy nhiên, điều đó có thể sắp thay đổi.

Ví dụ: Sáng kiến ​​Zero Day của Trend Micro chưa nhận thấy nhu cầu đáng kể về việc tìm ra lỗi trong các công cụ AI/ML, nhưng nhóm đã nhận thấy sự thay đổi thường xuyên về loại lỗ hổng mà ngành muốn các nhà nghiên cứu tìm ra và trọng tâm AI có thể sẽ đến Dustin Childs, Trưởng bộ phận Nhận thức về Mối đe dọa tại Sáng kiến ​​Zero Day của Trend Micro cho biết sẽ sớm xảy ra.

Ông nói: “Chúng tôi đang thấy điều tương tự ở AI mà chúng tôi đã thấy ở các ngành khác khi chúng phát triển”. “Lúc đầu, bảo mật không được ưu tiên để bổ sung thêm chức năng. Bây giờ nó đã đạt đến một mức độ chấp nhận nhất định, mọi người bắt đầu hỏi về ý nghĩa bảo mật.”

Dấu thời gian:

Thêm từ Đọc tối