Skynet Ahoy? Điều gì sẽ xảy ra đối với rủi ro bảo mật AI thế hệ tiếp theo

Skynet Ahoy? Điều gì sẽ xảy ra đối với rủi ro bảo mật AI thế hệ tiếp theo

Skynet Ahoy? Điều gì sẽ xảy ra đối với các rủi ro bảo mật AI thế hệ tiếp theo Trí tuệ dữ liệu PlatoBlockchain. Tìm kiếm dọc. Ái.

Các chuyên gia bảo mật cảnh báo rằng, khi quá trình đổi mới về trí tuệ nhân tạo (AI) tiếp tục diễn ra nhanh chóng, năm 2024 sẽ là thời điểm quan trọng để các tổ chức và cơ quan quản lý thiết lập các tiêu chuẩn, giao thức bảo mật và các biện pháp bảo vệ khác nhằm ngăn chặn AI đi trước chúng.

Các mô hình ngôn ngữ lớn (LLM), được hỗ trợ bởi các thuật toán phức tạp và bộ dữ liệu khổng lồ, thể hiện khả năng hiểu ngôn ngữ vượt trội và khả năng đàm thoại giống con người. Một trong những nền tảng phức tạp nhất cho đến nay là GPT-4 của OpenAI, nền tảng này tự hào có khả năng lý luận và giải quyết vấn đề tiên tiến cũng như hỗ trợ bot ChatGPT của công ty. Và công ty, hợp tác với Microsoft, đã bắt đầu làm việc trên GPT-5, CEO Sam Altman cho biết sẽ tiến xa hơn nữa - đến mức sở hữu “siêu trí tuệ”.

Những mô hình này thể hiện tiềm năng to lớn trong việc tăng năng suất và hiệu quả đáng kể cho các tổ chức, nhưng các chuyên gia đồng ý rằng đã đến lúc cho toàn ngành để giải quyết các rủi ro bảo mật vốn có đặt ra bởi sự phát triển và triển khai của họ. Thực vậy, nghiên cứu gần đây của Writerbuddy AI, công ty cung cấp công cụ viết nội dung dựa trên AI, nhận thấy rằng ChatGPT đã có 14 tỷ lượt truy cập và còn tiếp tục tăng.

Gal Ringel, Giám đốc điều hành của công ty bảo mật và quyền riêng tư dựa trên AI MineOS cho biết, khi các tổ chức tiến tới sự tiến bộ trong lĩnh vực AI, nó “cần phải được kết hợp với những cân nhắc nghiêm ngặt về mặt đạo đức và đánh giá rủi ro”.

AI có phải là mối đe dọa hiện sinh không?

Những lo ngại xung quanh vấn đề bảo mật cho thế hệ AI tiếp theo bắt đầu xuất hiện vào tháng 34,000, với một bức thư ngỏ được ký bởi gần XNUMX nhà công nghệ hàng đầu kêu gọi ngừng phát triển các hệ thống AI mạnh mẽ hơn. GPT-4 của OpenAI. Bức thư trích dẫn “những rủi ro sâu sắc” đối với xã hội mà công nghệ này gây ra và “cuộc chạy đua ngoài tầm kiểm soát của các phòng thí nghiệm AI nhằm phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai – kể cả người tạo ra chúng – có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy.”

Bất chấp những lo ngại viễn tưởng đó, hầu hết các chuyên gia bảo mật đều không lo ngại về kịch bản ngày tận thế trong đó máy móc trở nên thông minh hơn con người và thống trị thế giới.

Matt Wilson, giám đốc kỹ thuật bán hàng tại công ty an ninh mạng Netrix, cho biết: “Bức thư ngỏ ghi nhận những lo ngại chính đáng về sự tiến bộ nhanh chóng và các ứng dụng tiềm năng của AI theo nghĩa rộng, ‘điều này có tốt cho nhân loại’ hay không”. “Mặc dù ấn tượng trong một số trường hợp nhất định, nhưng các phiên bản công khai của công cụ AI không có vẻ đe dọa đến thế.”

Các nhà nghiên cứu lưu ý rằng điều đáng lo ngại là thực tế là những tiến bộ và việc áp dụng AI đang diễn ra quá nhanh để có thể quản lý rủi ro một cách hợp lý. Patrick Harr, Giám đốc điều hành của nhà cung cấp bảo mật AI SlashNext nhận xét: “Chúng tôi không thể đậy nắp lại chiếc hộp Pandora”.

Hơn nữa, chỉ “cố gắng ngăn chặn tốc độ đổi mới trong không gian sẽ không giúp giảm thiểu” những rủi ro mà nó gây ra, những rủi ro này phải được giải quyết riêng biệt, Marcus Fowler, Giám đốc điều hành của công ty bảo mật AI DarkTrace Federal, nhận xét. Ông nói, điều đó không có nghĩa là việc phát triển AI sẽ tiếp tục không được kiểm soát. Ngược lại, tốc độ đánh giá rủi ro và thực hiện các biện pháp bảo vệ thích hợp phải phù hợp với tốc độ đào tạo và phát triển LLM.

Fowler giải thích: “Công nghệ AI đang phát triển nhanh chóng, vì vậy các chính phủ và tổ chức sử dụng AI cũng phải đẩy nhanh các cuộc thảo luận về an toàn AI”.

Rủi ro AI sáng tạo

Có một số rủi ro được thừa nhận rộng rãi đối với AI tạo sinh cần được xem xét và sẽ chỉ trở nên tồi tệ hơn khi các thế hệ công nghệ trong tương lai ngày càng thông minh hơn. May mắn thay cho con người, cho đến nay, không ai trong số họ đặt ra một kịch bản ngày tận thế khoa học viễn tưởng trong đó AI âm mưu tiêu diệt những người tạo ra nó.

Thay vào đó, chúng bao gồm các mối đe dọa quen thuộc hơn nhiều, chẳng hạn như rò rỉ dữ liệu, có khả năng là thông tin nhạy cảm trong kinh doanh; lạm dụng cho hoạt động độc hại; và kết quả đầu ra không chính xác có thể gây hiểu nhầm hoặc gây nhầm lẫn cho người dùng, cuối cùng dẫn đến hậu quả tiêu cực trong kinh doanh.

Vì LLM yêu cầu quyền truy cập vào lượng lớn dữ liệu để cung cấp kết quả đầu ra chính xác và phù hợp với ngữ cảnh nên thông tin nhạy cảm có thể vô tình bị tiết lộ hoặc sử dụng sai mục đích.

“Rủi ro chính là nhân viên cho nó ăn với thông tin nhạy cảm trong kinh doanh khi yêu cầu nó viết một kế hoạch hoặc diễn đạt lại các email hoặc tài liệu kinh doanh có chứa thông tin độc quyền của công ty,” Ringel lưu ý.

Từ góc độ tấn công mạng, các tác nhân đe dọa đã tìm ra vô số cách để vũ khí hóa ChatGPT và các hệ thống AI khác. Một cách là sử dụng các mô hình để tạo ra sự xâm phạm email doanh nghiệp (BEC) tinh vi và các cuộc tấn công lừa đảo khác, đòi hỏi phải tạo ra các thông điệp được cá nhân hóa, được thiết kế mang tính xã hội được thiết kế để thành công.

Harr cho biết: “Với phần mềm độc hại, ChatGPT cho phép tội phạm mạng tạo ra các biến thể mã vô hạn để đi trước một bước so với các công cụ phát hiện phần mềm độc hại”.

Ảo giác AI cũng gây ra mối đe dọa bảo mật đáng kể và cho phép các tác nhân độc hại sử dụng công nghệ dựa trên LLM như ChatGPT theo một cách độc đáo. Ảo giác AI là một phản ứng hợp lý của AI nhưng không đầy đủ, sai lệch hoặc hoàn toàn không đúng sự thật. Avivah Litan, phó chủ tịch Gartner, cảnh báo: “Những phản hồi hư cấu hoặc không mong muốn khác có thể khiến các tổ chức đưa ra quyết định, quy trình và thông tin liên lạc sai lầm”.

Michael Rinehart, phó chủ tịch AI tại nhà cung cấp bảo mật dữ liệu Securiti, nhận xét: Những kẻ đe dọa cũng có thể sử dụng những ảo giác này để đầu độc LLM và “tạo ra thông tin sai lệch cụ thể để trả lời một câu hỏi”. “Điều này có thể mở rộng để tạo mã nguồn dễ bị tấn công và có thể cho các mô hình trò chuyện có khả năng hướng người dùng trang web đến các hành động không an toàn.”

Những kẻ tấn công thậm chí có thể đi xa đến mức xuất bản các phiên bản độc hại của gói phần mềm mà LLM có thể đề xuất cho nhà phát triển phần mềm, tin rằng đó là cách khắc phục hợp pháp cho một vấn đề. Bằng cách này, những kẻ tấn công có thể vũ khí hóa AI hơn nữa để thực hiện các cuộc tấn công chuỗi cung ứng.

Con đường phía trước

Các chuyên gia lưu ý rằng việc quản lý những rủi ro này sẽ đòi hỏi phải có hành động tập thể và đo lường trước khi sự đổi mới của AI vượt quá khả năng kiểm soát của ngành. Nhưng họ cũng có những ý tưởng về cách giải quyết vấn đề của AI.

Harr tin vào một “chiến đấu với AI bằng A” chiến lược, trong đó “những tiến bộ trong giải pháp bảo mật và chiến lược ngăn chặn rủi ro do AI thúc đẩy phải phát triển với tốc độ tương đương hoặc lớn hơn.

Ông cho biết thêm: “Bảo vệ an ninh mạng cần tận dụng AI để chống lại thành công các mối đe dọa trên mạng bằng công nghệ AI”. “So sánh, công nghệ bảo mật cũ không có cơ hội chống lại những cuộc tấn công này.”

Tuy nhiên, các tổ chức cũng nên áp dụng cách tiếp cận đo lường để áp dụng AI - bao gồm Giải pháp bảo mật dựa trên AI – kẻo họ gây ra nhiều rủi ro hơn cho môi trường của mình, Wilson của Netrix cảnh báo.

“Hãy hiểu AI là gì và không phải là gì,” anh ấy khuyên. “Thách thức các nhà cung cấp tuyên bố sử dụng AI để mô tả chức năng của nó, cách nó cải thiện giải pháp của họ và tại sao điều đó lại quan trọng đối với tổ chức của bạn.”

Rinehart của Securiti đưa ra cách tiếp cận hai tầng để đưa AI vào môi trường bằng cách triển khai các giải pháp tập trung và sau đó đặt các biện pháp bảo vệ ngay lập tức trước khi khiến tổ chức gặp rủi ro không cần thiết.

Ông nói: “Trước tiên hãy áp dụng các mô hình dành riêng cho ứng dụng, có khả năng được tăng cường bởi các cơ sở kiến ​​thức, được điều chỉnh để mang lại giá trị trong các trường hợp sử dụng cụ thể”. “Sau đó… triển khai một hệ thống giám sát để bảo vệ các mô hình này bằng cách xem xét kỹ lưỡng các tin nhắn đến và đi từ chúng để tìm các vấn đề về quyền riêng tư và bảo mật.”

Các chuyên gia cũng khuyên bạn nên thiết lập các chính sách và quy trình bảo mật xung quanh AI trước khi nó được triển khai thay vì xem xét lại để giảm thiểu rủi ro. Họ thậm chí có thể thành lập một nhân viên hoặc lực lượng đặc nhiệm chuyên trách quản lý rủi ro AI để giám sát việc tuân thủ.

Bên ngoài doanh nghiệp, toàn ngành cũng phải thực hiện các bước để thiết lập các tiêu chuẩn và thực tiễn bảo mật xung quanh AI mà mọi người đang phát triển và sử dụng công nghệ này đều có thể áp dụng - điều này sẽ đòi hỏi hành động tập thể của cả khu vực công và tư nhân trên phạm vi toàn cầu. , Fowler của DarkTrace Federal nói.

Ông trích dẫn hướng dẫn xây dựng hệ thống AI an toàn được Cơ quan An ninh Cơ sở hạ tầng và An ninh Mạng Hoa Kỳ (CISA) và Trung tâm An ninh Mạng Quốc gia Vương quốc Anh (NCSC) hợp tác xuất bản như một ví dụ về loại nỗ lực cần đi kèm với sự phát triển liên tục của AI.

Rinehart của Securiti cho biết: “Về bản chất, năm 2024 sẽ chứng kiến ​​sự thích ứng nhanh chóng của cả kỹ thuật bảo mật truyền thống và AI tiên tiến nhằm bảo vệ người dùng và dữ liệu trong kỷ nguyên AI thế hệ mới nổi này”.

Dấu thời gian:

Thêm từ Đọc tối