Nhà phát minh người Anh tin rằng AI có thể cách mạng hóa ngành xây dựng

Nhà phát minh người Anh tin rằng AI có thể cách mạng hóa ngành xây dựng

Lừa đảo trên internet giờ đây có thể trở nên nguy hiểm hơn rất nhiều, nhờ những kẻ lừa đảo có quyền truy cập không bị cản trở vào ChatGPT, Techradar báo cáo.

Chatbot được hỗ trợ bởi AI phổ biến rộng rãi, ChatGPT, liên tục trở thành tiêu đề. Với khả năng viết mọi thứ, từ gỡ lỗi mã iframe đến mã lập trình máy tính phức tạp, ChatGPT đã đưa AI trở thành từ thông dụng công nghệ của năm.

Mặc dù có mức độ phổ biến và tương tác rất lớn, ChatGPT đôi khi vẫn gây lo ngại về đạo đức và quy định.

Ngoài ra đọc: Người dùng ChatGPT 'Bẻ khóa' AI, Giải phóng Dan Alter Ego

Mới đây báo cáo được xuất bản bởi các nhà nghiên cứu an ninh mạng tại Norton Labs đã đưa ra ba cách chính mà các tác nhân đe dọa có thể lạm dụng ChatGPT. Báo cáo chỉ ra rằng ChatGPT có thể bị lạm dụng để lừa đảo trên internet theo cách hiệu quả hơn: thông qua tạo nội dung giả sâu, tạo lừa đảo và tạo phần mềm độc hại.

Báo cáo cho biết: “Norton Labs dự đoán những kẻ lừa đảo cũng đang để mắt đến khả năng của các mô hình ngôn ngữ lớn và thử nghiệm các cách để cải thiện tội phạm mạng của chúng để khiến chúng trở nên thực tế và đáng tin cậy hơn”.

Khả năng tạo ra “thông tin sai lệch hoặc thông tin sai lệch chất lượng cao trên quy mô lớn” của công cụ này có thể hỗ trợ các trang trại bot tăng cường sự bất hòa hiệu quả hơn. Theo Norton, điều này có thể cho phép các tác nhân độc hại dễ dàng “gieo rắc nghi ngờ và thao túng các câu chuyện bằng nhiều ngôn ngữ”.

'Thông tin sai lệch' có tính thuyết phục cao

Viết kế hoạch kinh doanh, chiến lược và mô tả công ty một cách thuyết phục là trò trẻ con đối với ChatGPT. Tuy nhiên, tiềm năng này cũng làm tăng nguy cơ thông tin sai lệch, có thể biến thành lừa đảo.

Báo cáo cho biết: “Không chỉ nội dung do ChatGPT tạo ra đôi khi không chính xác một cách vô tình mà kẻ xấu còn có thể sử dụng các công cụ này để cố ý tạo nội dung nhằm gây hại cho mọi người theo một cách nào đó”.

Khả năng tạo ra “thông tin sai lệch hoặc thông tin sai lệch chất lượng cao ở quy mô lớn có thể dẫn đến sự ngờ vực và định hình các câu chuyện bằng các ngôn ngữ khác nhau”.

Phòng thí nghiệm Norton

Phòng thí nghiệm Norton

Viết đánh giá về sản phẩm ngày càng trở nên dễ dàng với ChatGPT, không thể theo dõi được vì nó tạo ra các phản hồi riêng lẻ với cùng một thông tin được cung cấp mỗi lần. Bất chấp khả năng của nó, nó đặt ra thách thức “phát hiện các đánh giá giả mạo và sản phẩm kém chất lượng”.

Đáng lo ngại, công cụ này cũng có thể được sử dụng để bắt nạt.

Báo cáo lưu ý: “Việc sử dụng những công cụ này trong các chiến dịch quấy rối trên mạng xã hội để bịt miệng hoặc bắt nạt mọi người cũng là một kết quả có thể xảy ra và sẽ ảnh hưởng nghiêm trọng đến lời nói”.

ChatGPT trong các chiến dịch lừa đảo

ChatGPT đặc biệt giỏi trong việc tạo văn bản giống âm thanh của con người bằng các ngôn ngữ khác nhau, khiến người đọc không còn gì thông minh hơn về việc liệu văn bản được tạo bởi AI hay con người. Ngay cả OpenAI, nhà phát triển của ChatGPT, cũng không thể xác định xem một văn bản có được viết bởi AI hay không, nói rằng “không thể phát hiện tất cả văn bản do AI viết một cách đáng tin cậy”.

Khả năng ChatGPT được sử dụng trong các chiến dịch lừa đảo là có thật.

Báo cáo cho biết: “Những kẻ độc hại có thể sử dụng ChatGPT để tạo email lừa đảo hoặc bài đăng trên mạng xã hội có vẻ như đến từ các nguồn hợp pháp, khiến việc phát hiện và chống lại các loại mối đe dọa này trở nên khó khăn hơn”.

Khi mức độ phổ biến của nó tăng lên, một hệ quả tất yếu có thể xảy ra là sự gia tăng số lượng “các chiến dịch lừa đảo và mức độ phức tạp của chúng”.

Báo cáo gợi ý rằng “các tác nhân độc hại có thể cung cấp cho ChatGPT các ví dụ thực tế về các tin nhắn không độc hại từ các công ty mà họ muốn mạo danh và ra lệnh cho AI tạo những tin nhắn mới dựa trên cùng một phong cách với mục đích xấu”.

Các chiến dịch như vậy có thể chứng tỏ rất thành công trong việc lừa dối các cá nhân tiết lộ thông tin cá nhân hoặc gửi tiền cho các tổ chức tội phạm. Norton Labs khuyên người tiêu dùng nên thận trọng khi “nhấp vào liên kết hoặc cung cấp thông tin cá nhân”.

ChatGPT có thể tạo phần mềm độc hại

Tạo mã và điều chỉnh các ngôn ngữ lập trình khác nhau chỉ là một phần không thể thiếu trong các dịch vụ của ChatGPT. Vì vậy, không có gì ngạc nhiên khi những kẻ lừa đảo đang sử dụng nó để tạo phần mềm độc hại.

Báo cáo cho biết: “Với lời nhắc phù hợp, các tác giả phần mềm độc hại mới làm quen có thể mô tả những gì họ muốn làm và lấy các đoạn mã hoạt động”. Điều này đặt ra một mối đe dọa nghiêm trọng về các cuộc tấn công phần mềm độc hại đủ tiên tiến để tàn phá.

Báo cáo giải thích: “Một ví dụ là tạo mã để phát hiện khi địa chỉ ví bitcoin được sao chép vào khay nhớ tạm để có thể thay thế địa chỉ đó bằng địa chỉ độc hại do tác giả phần mềm độc hại kiểm soát”.

Do đó, sự sẵn có của một chatbot như vậy sẽ làm tăng mức độ tinh vi của phần mềm độc hại.

Dấu thời gian:

Thêm từ MetaNews