Các chuyên gia bảo mật cảnh báo rằng, khi quá trình đổi mới về trí tuệ nhân tạo (AI) tiếp tục diễn ra nhanh chóng, năm 2024 sẽ là thời điểm quan trọng để các tổ chức và cơ quan quản lý thiết lập các tiêu chuẩn, giao thức bảo mật và các biện pháp bảo vệ khác nhằm ngăn chặn AI đi trước chúng.
Các mô hình ngôn ngữ lớn (LLM), được hỗ trợ bởi các thuật toán phức tạp và bộ dữ liệu khổng lồ, thể hiện khả năng hiểu ngôn ngữ vượt trội và khả năng đàm thoại giống con người. Một trong những nền tảng phức tạp nhất cho đến nay là GPT-4 của OpenAI, nền tảng này tự hào có khả năng lý luận và giải quyết vấn đề tiên tiến cũng như hỗ trợ bot ChatGPT của công ty. Và công ty, hợp tác với Microsoft, đã bắt đầu làm việc trên GPT-5, CEO Sam Altman cho biết sẽ tiến xa hơn nữa - đến mức sở hữu “siêu trí tuệ”.
Những mô hình này thể hiện tiềm năng to lớn trong việc tăng năng suất và hiệu quả đáng kể cho các tổ chức, nhưng các chuyên gia đồng ý rằng đã đến lúc cho toàn ngành để giải quyết các rủi ro bảo mật vốn có đặt ra bởi sự phát triển và triển khai của họ. Thực vậy, nghiên cứu gần đây của Writerbuddy AI, công ty cung cấp công cụ viết nội dung dựa trên AI, nhận thấy rằng ChatGPT đã có 14 tỷ lượt truy cập và còn tiếp tục tăng.
Gal Ringel, Giám đốc điều hành của công ty bảo mật và quyền riêng tư dựa trên AI MineOS cho biết, khi các tổ chức tiến tới sự tiến bộ trong lĩnh vực AI, nó “cần phải được kết hợp với những cân nhắc nghiêm ngặt về mặt đạo đức và đánh giá rủi ro”.
AI có phải là mối đe dọa hiện sinh không?
Những lo ngại xung quanh vấn đề bảo mật cho thế hệ AI tiếp theo bắt đầu xuất hiện vào tháng 34,000, với một bức thư ngỏ được ký bởi gần XNUMX nhà công nghệ hàng đầu kêu gọi ngừng phát triển các hệ thống AI mạnh mẽ hơn. GPT-4 của OpenAI. Bức thư trích dẫn “những rủi ro sâu sắc” đối với xã hội mà công nghệ này gây ra và “cuộc chạy đua ngoài tầm kiểm soát của các phòng thí nghiệm AI nhằm phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn bao giờ hết mà không ai – kể cả người tạo ra chúng – có thể hiểu, dự đoán hoặc kiểm soát một cách đáng tin cậy.”
Bất chấp những lo ngại viễn tưởng đó, hầu hết các chuyên gia bảo mật đều không lo ngại về kịch bản ngày tận thế trong đó máy móc trở nên thông minh hơn con người và thống trị thế giới.
Matt Wilson, giám đốc kỹ thuật bán hàng tại công ty an ninh mạng Netrix, cho biết: “Bức thư ngỏ ghi nhận những lo ngại chính đáng về sự tiến bộ nhanh chóng và các ứng dụng tiềm năng của AI theo nghĩa rộng, ‘điều này có tốt cho nhân loại’ hay không”. “Mặc dù ấn tượng trong một số trường hợp nhất định, nhưng các phiên bản công khai của công cụ AI không có vẻ đe dọa đến thế.”
Các nhà nghiên cứu lưu ý rằng điều đáng lo ngại là thực tế là những tiến bộ và việc áp dụng AI đang diễn ra quá nhanh để có thể quản lý rủi ro một cách hợp lý. Patrick Harr, Giám đốc điều hành của nhà cung cấp bảo mật AI SlashNext nhận xét: “Chúng tôi không thể đậy nắp lại chiếc hộp Pandora”.
Hơn nữa, chỉ “cố gắng ngăn chặn tốc độ đổi mới trong không gian sẽ không giúp giảm thiểu” những rủi ro mà nó gây ra, những rủi ro này phải được giải quyết riêng biệt, Marcus Fowler, Giám đốc điều hành của công ty bảo mật AI DarkTrace Federal, nhận xét. Ông nói, điều đó không có nghĩa là việc phát triển AI sẽ tiếp tục không được kiểm soát. Ngược lại, tốc độ đánh giá rủi ro và thực hiện các biện pháp bảo vệ thích hợp phải phù hợp với tốc độ đào tạo và phát triển LLM.
Fowler giải thích: “Công nghệ AI đang phát triển nhanh chóng, vì vậy các chính phủ và tổ chức sử dụng AI cũng phải đẩy nhanh các cuộc thảo luận về an toàn AI”.
Rủi ro AI sáng tạo
Có một số rủi ro được thừa nhận rộng rãi đối với AI tạo sinh cần được xem xét và sẽ chỉ trở nên tồi tệ hơn khi các thế hệ công nghệ trong tương lai ngày càng thông minh hơn. May mắn thay cho con người, cho đến nay, không ai trong số họ đặt ra một kịch bản ngày tận thế khoa học viễn tưởng trong đó AI âm mưu tiêu diệt những người tạo ra nó.
Thay vào đó, chúng bao gồm các mối đe dọa quen thuộc hơn nhiều, chẳng hạn như rò rỉ dữ liệu, có khả năng là thông tin nhạy cảm trong kinh doanh; lạm dụng cho hoạt động độc hại; và kết quả đầu ra không chính xác có thể gây hiểu nhầm hoặc gây nhầm lẫn cho người dùng, cuối cùng dẫn đến hậu quả tiêu cực trong kinh doanh.
Vì LLM yêu cầu quyền truy cập vào lượng lớn dữ liệu để cung cấp kết quả đầu ra chính xác và phù hợp với ngữ cảnh nên thông tin nhạy cảm có thể vô tình bị tiết lộ hoặc sử dụng sai mục đích.
“Rủi ro chính là nhân viên cho nó ăn với thông tin nhạy cảm trong kinh doanh khi yêu cầu nó viết một kế hoạch hoặc diễn đạt lại các email hoặc tài liệu kinh doanh có chứa thông tin độc quyền của công ty,” Ringel lưu ý.
Từ góc độ tấn công mạng, các tác nhân đe dọa đã tìm ra vô số cách để vũ khí hóa ChatGPT và các hệ thống AI khác. Một cách là sử dụng các mô hình để tạo ra sự xâm phạm email doanh nghiệp (BEC) tinh vi và các cuộc tấn công lừa đảo khác, đòi hỏi phải tạo ra các thông điệp được cá nhân hóa, được thiết kế mang tính xã hội được thiết kế để thành công.
Harr cho biết: “Với phần mềm độc hại, ChatGPT cho phép tội phạm mạng tạo ra các biến thể mã vô hạn để đi trước một bước so với các công cụ phát hiện phần mềm độc hại”.
Ảo giác AI cũng gây ra mối đe dọa bảo mật đáng kể và cho phép các tác nhân độc hại sử dụng công nghệ dựa trên LLM như ChatGPT theo một cách độc đáo. Ảo giác AI là một phản ứng hợp lý của AI nhưng không đầy đủ, sai lệch hoặc hoàn toàn không đúng sự thật. Avivah Litan, phó chủ tịch Gartner, cảnh báo: “Những phản hồi hư cấu hoặc không mong muốn khác có thể khiến các tổ chức đưa ra quyết định, quy trình và thông tin liên lạc sai lầm”.
Michael Rinehart, phó chủ tịch AI tại nhà cung cấp bảo mật dữ liệu Securiti, nhận xét: Những kẻ đe dọa cũng có thể sử dụng những ảo giác này để đầu độc LLM và “tạo ra thông tin sai lệch cụ thể để trả lời một câu hỏi”. “Điều này có thể mở rộng để tạo mã nguồn dễ bị tấn công và có thể cho các mô hình trò chuyện có khả năng hướng người dùng trang web đến các hành động không an toàn.”
Những kẻ tấn công thậm chí có thể đi xa đến mức xuất bản các phiên bản độc hại của gói phần mềm mà LLM có thể đề xuất cho nhà phát triển phần mềm, tin rằng đó là cách khắc phục hợp pháp cho một vấn đề. Bằng cách này, những kẻ tấn công có thể vũ khí hóa AI hơn nữa để thực hiện các cuộc tấn công chuỗi cung ứng.
Con đường phía trước
Các chuyên gia lưu ý rằng việc quản lý những rủi ro này sẽ đòi hỏi phải có hành động tập thể và đo lường trước khi sự đổi mới của AI vượt quá khả năng kiểm soát của ngành. Nhưng họ cũng có những ý tưởng về cách giải quyết vấn đề của AI.
Harr tin vào một “chiến đấu với AI bằng A” chiến lược, trong đó “những tiến bộ trong giải pháp bảo mật và chiến lược ngăn chặn rủi ro do AI thúc đẩy phải phát triển với tốc độ tương đương hoặc lớn hơn.
Ông cho biết thêm: “Bảo vệ an ninh mạng cần tận dụng AI để chống lại thành công các mối đe dọa trên mạng bằng công nghệ AI”. “So sánh, công nghệ bảo mật cũ không có cơ hội chống lại những cuộc tấn công này.”
Tuy nhiên, các tổ chức cũng nên áp dụng cách tiếp cận đo lường để áp dụng AI - bao gồm Giải pháp bảo mật dựa trên AI – kẻo họ gây ra nhiều rủi ro hơn cho môi trường của mình, Wilson của Netrix cảnh báo.
“Hãy hiểu AI là gì và không phải là gì,” anh ấy khuyên. “Thách thức các nhà cung cấp tuyên bố sử dụng AI để mô tả chức năng của nó, cách nó cải thiện giải pháp của họ và tại sao điều đó lại quan trọng đối với tổ chức của bạn.”
Rinehart của Securiti đưa ra cách tiếp cận hai tầng để đưa AI vào môi trường bằng cách triển khai các giải pháp tập trung và sau đó đặt các biện pháp bảo vệ ngay lập tức trước khi khiến tổ chức gặp rủi ro không cần thiết.
Ông nói: “Trước tiên hãy áp dụng các mô hình dành riêng cho ứng dụng, có khả năng được tăng cường bởi các cơ sở kiến thức, được điều chỉnh để mang lại giá trị trong các trường hợp sử dụng cụ thể”. “Sau đó… triển khai một hệ thống giám sát để bảo vệ các mô hình này bằng cách xem xét kỹ lưỡng các tin nhắn đến và đi từ chúng để tìm các vấn đề về quyền riêng tư và bảo mật.”
Các chuyên gia cũng khuyên bạn nên thiết lập các chính sách và quy trình bảo mật xung quanh AI trước khi nó được triển khai thay vì xem xét lại để giảm thiểu rủi ro. Họ thậm chí có thể thành lập một nhân viên hoặc lực lượng đặc nhiệm chuyên trách quản lý rủi ro AI để giám sát việc tuân thủ.
Bên ngoài doanh nghiệp, toàn ngành cũng phải thực hiện các bước để thiết lập các tiêu chuẩn và thực tiễn bảo mật xung quanh AI mà mọi người đang phát triển và sử dụng công nghệ này đều có thể áp dụng - điều này sẽ đòi hỏi hành động tập thể của cả khu vực công và tư nhân trên phạm vi toàn cầu. , Fowler của DarkTrace Federal nói.
Ông trích dẫn hướng dẫn xây dựng hệ thống AI an toàn được Cơ quan An ninh Cơ sở hạ tầng và An ninh Mạng Hoa Kỳ (CISA) và Trung tâm An ninh Mạng Quốc gia Vương quốc Anh (NCSC) hợp tác xuất bản như một ví dụ về loại nỗ lực cần đi kèm với sự phát triển liên tục của AI.
Rinehart của Securiti cho biết: “Về bản chất, năm 2024 sẽ chứng kiến sự thích ứng nhanh chóng của cả kỹ thuật bảo mật truyền thống và AI tiên tiến nhằm bảo vệ người dùng và dữ liệu trong kỷ nguyên AI thế hệ mới nổi này”.
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- nguồn: https://www.darkreading.com/vulnerabilities-threats/skynet-ahoy-what-to-expect-next-gen-ai-security-risks
- : có
- :là
- :không phải
- $ LÊN
- 000
- 14
- 2024
- 7
- a
- có khả năng
- Giới thiệu
- đẩy nhanh tiến độ
- truy cập
- hộ tống
- chính xác
- Hoạt động
- hành động
- hoạt động
- diễn viên
- thích ứng
- địa chỉ
- giải quyết
- Thêm
- nhận nuôi
- Nhận nuôi
- Nhận con nuôi
- tiên tiến
- thăng tiến
- tiến bộ
- chống lại
- cơ quan
- trước
- AI
- Hệ thống AI
- thuật toán
- Tất cả
- cho phép
- Đã
- Ngoài ra
- số lượng
- an
- và
- và cơ sở hạ tầng
- xuất hiện
- các ứng dụng
- phương pháp tiếp cận
- thích hợp
- LÀ
- ARM
- xung quanh
- nhân tạo
- trí tuệ nhân tạo
- Trí tuệ nhân tạo (AI)
- AS
- yêu cầu
- thẩm định, lượng định, đánh giá
- đánh giá
- At
- Các cuộc tấn công
- cố gắng
- tăng cường
- trở lại
- trận đánh
- BE
- BEC
- trở nên
- được
- trước
- được
- tin
- tin tưởng
- có thành kiến
- Tỷ
- tự hào
- cơ quan
- Bot
- cả hai
- Hộp
- rộng
- Xây dựng
- kinh doanh
- thỏa hiệp email kinh doanh
- nhưng
- by
- gọi là
- CAN
- không thể
- khả năng
- có khả năng
- trường hợp
- thận trọng
- trung tâm
- giám đốc điều hành
- nhất định
- chuỗi
- thách thức
- cơ hội
- trò chuyện trên mạng
- ChatGPT
- trích dẫn
- xin
- mã
- Tập thể
- Đến
- Truyền thông
- công ty
- sự so sánh
- tuân thủ
- thỏa hiệp
- quan tâm
- liên quan đến
- Mối quan tâm
- Hậu quả
- xem xét
- sự cân nhắc
- tiếp tục
- tiếp tục
- liên tiếp
- trái
- điều khiển
- đàm thoại
- hơn nữa
- kết
- tạo
- tạo
- người sáng tạo
- quan trọng
- tiên tiến
- không gian mạng
- an ninh mạng
- Tấn công mạng
- tội phạm mạng
- An ninh mạng
- dữ liệu
- bảo mật dữ liệu
- bộ dữ liệu
- Ngày
- Ra quyết định
- dành riêng
- Nhu cầu
- chứng minh
- triển khai
- triển khai
- triển khai
- triển khai
- mô tả
- thiết kế
- phá hủy
- Phát hiện
- phát triển
- phát triển
- Nhà phát triển
- phát triển
- Phát triển
- kỹ thuật số
- đạo diễn
- Giám đốc
- thảo luận
- làm
- doesn
- don
- ngày tận thế
- bác sĩ da liễu
- hiệu quả
- những nỗ lực
- mới nổi
- nhân viên
- cho phép
- thiết kế
- Kỹ Sư
- Động cơ
- Nâng cao
- to lớn
- Doanh nghiệp
- Môi trường
- như nhau
- Kỷ nguyên
- bản chất
- thành lập
- đạo đức
- Ngay cả
- BAO GIỜ
- mọi người
- sự tiến hóa
- phát triển
- ví dụ
- hiện sinh
- mong đợi
- các chuyên gia
- Giải thích
- thực tế
- quen
- xa
- bị lỗi
- nỗi sợ hãi
- Liên bang
- cho ăn
- hư cấu
- Công ty
- Tên
- Sửa chữa
- trải rộng
- tập trung
- Trong
- Buộc
- May mắn thay
- tìm thấy
- từ
- FT
- được thúc đẩy
- xa hơn
- tương lai
- thu nhập
- GAL
- Gartner
- tạo ra
- thế hệ
- các thế hệ
- thế hệ
- Trí tuệ nhân tạo
- được
- nhận được
- Toàn cầu
- quy mô toàn cầu
- Go
- tốt
- cai quản
- Chính phủ
- lớn hơn
- có
- Có
- he
- giúp đỡ
- Độ đáng tin của
- Hướng dẫn
- HTTPS
- Nhân loại
- giống con người
- Con người
- ý tưởng
- ngay
- thực hiện
- thực hiện
- ấn tượng
- in
- không chính xác
- vô tình
- bao gồm
- Bao gồm
- thực sự
- ngành công nghiệp
- Infinite
- Thông tin
- thông tin
- Cơ sở hạ tầng
- vốn có
- sự đổi mới
- Sự thông minh
- trong
- giới thiệu
- isn
- các vấn đề
- IT
- ITS
- jpg
- kiến thức
- Phòng thí nghiệm
- Ngôn ngữ
- Rò rỉ
- Legacy
- hợp pháp
- bức thư
- Tỉ lệ đòn bẩy
- Lượt thích
- LLM
- Máy móc
- Chủ yếu
- làm cho
- độc hại
- phần mềm độc hại
- phát hiện phần mềm độc hại
- quản lý
- Tháng Ba
- Marcus
- lớn
- Trận đấu
- matt
- Vấn đề
- nghĩa là
- chỉ đơn thuần là
- tin nhắn
- Michael
- microsoft
- Might
- tâm trí
- Thông tin sai
- gây hiểu lầm
- sử dụng sai
- Giảm nhẹ
- mô hình
- giám sát
- chi tiết
- hầu hết
- Gắn kết
- di chuyển
- nhiều
- phải
- vô số
- quốc dân
- NCSC
- gần
- nhu cầu
- tiêu cực
- tiếp theo
- Không
- Không áp dụng
- ghi
- lưu ý
- Chú ý
- Quan sát
- of
- Cung cấp
- Nhân viên văn phòng
- on
- ONE
- có thể
- mở
- OpenAI
- or
- cơ quan
- tổ chức
- Nền tảng khác
- kết quả đầu ra
- kết thúc
- giám sát
- Hòa bình
- Công ty
- patrick
- Cá nhân
- quan điểm
- Lừa đảo
- tấn công lừa đảo
- Nơi
- kế hoạch
- Nền tảng
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- Điểm
- chất độc
- Chính sách
- đặt ra
- đặt ra
- đặt ra
- có thể
- tiềm năng
- có khả năng
- -
- mạnh mẽ
- quyền hạn
- thực hành
- dự đoán
- quà
- Chủ tịch
- ngăn chặn
- riêng tư
- Bảo mật và An ninh
- riêng
- khu vực tư nhân
- Vấn đề
- giải quyết vấn đề
- thủ tục
- Quy trình
- năng suất
- thâm thúy
- Tiến độ
- đúng
- độc quyền
- bảo vệ
- giao thức
- cho
- nhà cung cấp dịch vụ
- công khai
- công bố
- đặt
- Đặt
- câu hỏi
- Mau
- Cuộc đua
- nhanh
- Tỷ lệ
- hơn
- công nhận
- giới thiệu
- có liên quan
- đáng chú ý
- diễn đạt lại
- đại diện
- đại diện cho
- yêu cầu
- nghiên cứu
- nhà nghiên cứu
- phản ứng
- phản ứng
- kết quả
- Tiết lộ
- nghiêm ngặt
- Nguy cơ
- đánh giá rủi ro
- rủi ro
- s
- bảo vệ
- biện pháp bảo vệ
- Sự An Toàn
- Nói
- bán hàng
- Sam
- Sam Altman
- nói
- Quy mô
- kịch bản
- kịch bản
- ngành
- an toàn
- an ninh
- Chính sách bảo mật
- Rủi ro bảo mật
- ý nghĩa
- nhạy cảm
- định
- bộ
- thiết lập
- một số
- nên
- Ký kết
- có ý nghĩa
- website
- Skynet
- thông minh hơn
- So
- cho đến nay
- xã hội
- Xã hội
- Phần mềm
- giải pháp
- Giải pháp
- một cái gì đó
- tinh vi
- Không gian
- riêng
- đứng
- tiêu chuẩn
- bắt đầu
- ở lại
- chỉ đạo
- Bước
- Các bước
- Dừng
- chiến lược
- Chiến lược
- thành công
- Thành công
- như vậy
- Giám sát
- cung cấp
- chuỗi cung ứng
- hệ thống
- hệ thống
- phù hợp
- Hãy
- Nhiệm vụ
- lực lượng đặc nhiệm
- kỹ thuật
- nhà công nghệ
- Công nghệ
- hơn
- việc này
- Sản phẩm
- Anh
- thế giới
- cung cấp their dịch
- Them
- sau đó
- Kia là
- họ
- điều này
- những
- mối đe dọa
- diễn viên đe dọa
- các mối đe dọa
- cản trở
- thời gian
- đến
- quá
- công cụ
- công cụ
- hàng đầu
- đối với
- truyền thống
- đào tạo
- đúng
- kiểu
- Uk
- Cuối cùng
- hiểu
- sự hiểu biết
- độc đáo
- không cần thiết
- không mong muốn
- us
- sử dụng
- Người sử dụng
- sử dụng
- hợp lệ
- giá trị
- Lớn
- nhà cung cấp
- phiên bản
- phó
- Phó Chủ Tịch
- Thăm
- Dễ bị tổn thương
- Cảnh báo
- Đường..
- cách
- we
- Điều gì
- khi nào
- cái nào
- trong khi
- toàn bộ
- tại sao
- rộng rãi
- sẽ
- Wilson
- với
- nhân chứng
- Công việc
- thế giới
- tệ hơn
- viết
- năm
- trên màn hình
- zephyrnet