Diễn đàn bẻ khóa ChatGPT ngày càng phổ biến trong các cộng đồng web đen

Diễn đàn bẻ khóa ChatGPT ngày càng phổ biến trong các cộng đồng web đen

Việc vũ khí hóa các công cụ AI tổng hợp như ChatGPT mọi người đã chờ đợi đang dần dần, từ từ bắt đầu hình thành. Trong cộng đồng trực tuyến, những chú mèo tò mò đang cộng tác để tìm ra những cách mới nhằm bẻ khóa các quy tắc đạo đức của ChatGPT, thường được gọi là “bẻ khóa” và tin tặc đang phát triển một mạng lưới các công cụ mới để tận dụng hoặc tạo ra các mô hình ngôn ngữ lớn (LLM) cho các mục đích độc hại.

Cũng giống như trên mặt đất, ChatGPT dường như đã truyền cảm hứng cho một sự điên cuồng trong các diễn đàn ngầm. Kể từ tháng 12, tin tặc đã săn lùng những công nghệ mới và sáng tạo nhắc thao tác ChatGPTLLM nguồn mở mà chúng có thể sử dụng lại cho các mục đích độc hại

Kết quả, theo một blog mới từ SlashNext, là một cộng đồng hack LLM vẫn còn non trẻ nhưng đang phát triển mạnh mẽ, sở hữu rất nhiều lời nhắc thông minh nhưng một số phần mềm độc hại hỗ trợ AI đáng để suy nghĩ lại.

Tin tặc đang làm gì với AI LLM

Kỹ thuật nhanh chóng liên quan đến việc đặt các câu hỏi khéo léo cho các chatbot như ChatGPT nhằm mục đích thao túng chúng, khiến chúng phá vỡ các quy tắc đã được lập trình để chống lại việc tạo phần mềm độc hại mà các mô hình không hề biết. Patrick Harr, Giám đốc điều hành của SlashNext giải thích: “Các hacker chỉ đang cố gắng nhìn xung quanh các lan can bảo vệ. Các cạnh là gì? Tôi chỉ liên tục thay đổi lời nhắc, yêu cầu nó theo nhiều cách khác nhau để làm được điều tôi muốn.”

Bởi vì đó là một công việc tẻ nhạt và vì mọi người đều tấn công cùng một mục tiêu nên việc các cộng đồng trực tuyến có quy mô lành mạnh được hình thành xung quanh hoạt động chia sẻ các mẹo và thủ thuật là điều đương nhiên. Các thành viên của các cộng đồng bẻ khóa này hỗ trợ lẫn nhau, giúp đỡ lẫn nhau để ChatGPT có thể bẻ khóa và thực hiện những điều mà các nhà phát triển dự định ngăn chặn nó thực hiện.

ảnh chụp màn hình của một nhóm trò chuyện trực tuyến được thực hiện để nhắc nhở
Nguồn: SlashNext

Tuy nhiên, các kỹ sư nhanh chóng chỉ có thể đạt được nhiều điều bằng cách chơi chữ ưa thích nếu chatbot được đề cập được xây dựng linh hoạt như ChatGPT. Vì vậy, xu hướng đáng lo ngại hơn là các nhà phát triển phần mềm độc hại đang bắt đầu lập trình LLM cho mục đích bất chính của riêng họ.

Mối đe dọa tiềm ẩn của WormGPT và LLM độc hại

Một lễ vật được gọi là SâuGPT xuất hiện vào tháng 7 để khởi động hiện tượng LLM độc hại. Đó là một giải pháp thay thế mũ đen cho các mô hình GPT được thiết kế đặc biệt cho các hoạt động độc hại như BEC, phần mềm độc hại và các cuộc tấn công lừa đảo, được tiếp thị trên các diễn đàn ngầm “như ChatGPT nhưng [không] có ranh giới hoặc giới hạn về mặt đạo đức”. Người tạo ra WormGPT tuyên bố đã xây dựng nó trên mô hình ngôn ngữ tùy chỉnh, được đào tạo trên nhiều nguồn dữ liệu khác nhau, tập trung vào dữ liệu liên quan đến các cuộc tấn công mạng.

Harr giải thích: “Điều đó có ý nghĩa gì đối với tin tặc,” Harr giải thích, “là giờ đây tôi có thể thực hiện một cuộc tấn công email doanh nghiệp (BEC) hoặc một cuộc tấn công lừa đảo hoặc tấn công phần mềm độc hại và thực hiện việc này trên quy mô lớn với chi phí rất tối thiểu. Và tôi có thể bị nhắm tới nhiều hơn trước.”

Kể từ WormGPT, một số sản phẩm tương tự đã bị bàn tán trong các cộng đồng trực tuyến mờ ám, bao gồm cả Lừa đảoGPT, được quảng cáo là “bot không có giới hạn, quy tắc, [và] ranh giới” bởi một kẻ đe dọa tự xưng là nhà cung cấp đã được xác minh trên nhiều thị trường Dark Web ngầm khác nhau, bao gồm Empire, WHM, Torrez, World, AlphaBay và Versus. Và tháng 8 mang đến sự xuất hiện của Chatbot tội phạm mạng DarkBART và DarkBERT, dựa trên Google Bard, mà các nhà nghiên cứu vào thời điểm đó cho rằng đại diện cho một bước nhảy vọt lớn đối với AI đối thủ, bao gồm tích hợp Google Lens cho hình ảnh và quyền truy cập tức thì vào toàn bộ cơ sở kiến ​​thức mạng ngầm.

Theo SlashNext, những thứ này hiện đang sinh sôi nảy nở, với phần lớn chúng được xây dựng dựa trên các mô hình nguồn mở như OpenGPT của OpenAI. Một loạt tin tặc có tay nghề thấp hơn chỉ cần tùy chỉnh nó, ngụy trang nó trong một lớp bao bọc, sau đó đặt một cái tên “___GPT” mơ hồ đáng ngại trên đó (ví dụ: “BadGPT”, “DarkGPT”). Tuy nhiên, ngay cả những dịch vụ ersatz này cũng có vị trí của chúng trong cộng đồng, cung cấp một số hạn chế và tính ẩn danh hoàn toàn cho người dùng.

Bảo vệ chống lại vũ khí mạng AI thế hệ tiếp theo

Theo SlashNext, cả WormGPT, con cháu của nó cũng như các kỹ sư của Rapid đều chưa gây ra mối nguy hiểm đáng kể như vậy cho các doanh nghiệp. Mặc dù vậy, sự gia tăng của các thị trường bẻ khóa ngầm đồng nghĩa với việc ngày càng có nhiều công cụ hơn cho tội phạm mạng, điều này báo hiệu một sự thay đổi lớn trong kỹ thuật xã hội và cách chúng ta chống lại nó. 

Harr khuyên: “Đừng dựa vào việc huấn luyện, bởi vì những cuộc tấn công này rất, rất cụ thể và có mục tiêu rất rõ ràng, nhiều hơn so với trước đây”.

Thay vào đó, anh ấy tán thành quan điểm được mọi người nhất trí chung rằng các mối đe dọa AI cần có sự bảo vệ của AI. Ông nói: “Nếu bạn không có các công cụ AI phát hiện, dự đoán và ngăn chặn những mối đe dọa này, thì bạn sẽ ở bên ngoài để quan sát”.

Dấu thời gian:

Thêm từ Đọc tối