Nỗ lực tránh các rào chắn bảo vệ AI bị đổ lỗi cho deepfake Swift

Nỗ lực tránh các rào chắn bảo vệ AI bị đổ lỗi cho deepfake Swift

Nỗ lực tránh các rào chắn bảo vệ AI bị đổ lỗi cho Swift deepfake PlatoBlockchain Data Intelligence. Tìm kiếm dọc. Ái.

Những hình ảnh deepfake dâm dục lan truyền của ngôi sao nhạc pop Taylor Swift được cho là bắt nguồn từ một cuộc thi trực tuyến trên 4chan, thách thức các thí sinh phá vỡ các bộ lọc nội dung phần mềm AI. 

Mọi người tại Graphika, một công ty phân tích truyền thông xã hội ở New York, đã truy tìm các bức ảnh trực tiếp đến 4chan. Mọi người được yêu cầu nghĩ ra các thủ thuật để vượt qua các rào cản an toàn trên các ứng dụng như Designer của Microsoft hay DALL-E của OpenAI để tạo ra hình ảnh NSFW của những người nổi tiếng nữ. Theo Graphika, những bức ảnh của Taylor Swift được tạo bằng Microsoft Designer và sau đó được chia sẻ trong một cuộc trò chuyện nhóm trên Telegram, trước khi đăng lên X, theo Graphika.

Người phát ngôn của Microsoft cho biết: “Chúng tôi đang tiếp tục điều tra những hình ảnh này và đã tăng cường hệ thống an toàn hiện có của mình để ngăn chặn hơn nữa các dịch vụ của chúng tôi bị lạm dụng nhằm tạo ra những hình ảnh giống như chúng”. Đăng ký trong một tuyên bố. 

Hình ảnh deepfake của Nhanh đã thu về hàng triệu lượt xem trên X trước khi nền tảng mạng xã hội xóa chúng và tạm thời chặn một số cụm từ tìm kiếm liên quan đến nhạc sĩ. Tuy nhiên, Graphika nói rằng cuộc thi nhắm mục tiêu vào các nhân vật nữ nổi tiếng khác và cảnh báo rằng công nghệ này có thể bị lạm dụng để nhắm mục tiêu vào bất kỳ ai. 

Cristina López G., nhà phân tích cấp cao tại Graphika, cho biết: “Trong khi những bức ảnh khiêu dâm lan truyền của Taylor Swift đã thu hút sự chú ý rộng rãi về vấn đề hình ảnh thân mật không có sự đồng thuận do AI tạo ra, cô ấy không phải là nạn nhân duy nhất”. nói với Bloomberg. “Trong cộng đồng 4chan nơi những hình ảnh này bắt nguồn, cô ấy thậm chí không phải là nhân vật được công chúng nhắm đến thường xuyên nhất. Điều này cho thấy bất kỳ ai cũng có thể trở thành mục tiêu theo cách này, từ những người nổi tiếng toàn cầu đến học sinh.”

Tuy nhiên, bản chất lan truyền của những hình ảnh giả mạo miêu tả Swift trong tư thế khêu gợi tình dục dường như đã khiến các nhà lập pháp phải vào cuộc. Thư ký báo chí Nhà Trắng Karine Jean-Pierre kêu gọi Quốc hội “thực hiện hành động lập pháp” để đáp trả những bức ảnh “đáng báo động”. 

Tuần trước, các thượng nghị sĩ Hoa Kỳ đã giới thiệu Đạo luật Phá vỡ hình ảnh giả mạo rõ ràng và chỉnh sửa không có sự đồng thuận (DEFIANCE) năm 2024, một đạo luật hóa đơn lưỡng đảng điều đó sẽ cho phép nạn nhân kiện những người tạo và chia sẻ những tác phẩm sâu sắc tục tĩu do AI tạo ra. Đạo luật do Thượng nghị sĩ Dick Durbin (D-IL), Lindsey Graham (R-SC), Amy Klobuchar (D-MN) và Josh Hawley (R-MO) dẫn đầu, đã chỉ ra một nghiên cứu khẳng định 96% video deepfake mang tính khiêu dâm và được tạo ra mà không có sự cho phép hoặc đồng ý của những người phụ nữ mà nó mô tả. 

Đạo luật DEFIANCE được đưa ra vào thời điểm các CEO hàng đầu của các nền tảng truyền thông xã hội bị thẩm vấn tại Quốc hội. nghe về việc khai thác tình dục trẻ em trực tuyến và thiếu sự bảo vệ.

Đăng ký đã yêu cầu Graphika bình luận thêm. ®

Dấu thời gian:

Thêm từ Đăng ký