Microsoft tiết lộ công nghệ deepfake quá tốt để phát hành

Microsoft tiết lộ công nghệ deepfake quá tốt để phát hành

Microsoft tiết lộ công nghệ deepfake quá tốt để phát hành PlatoBlockchain Data Intelligence Tìm kiếm dọc. Ái.

Tuần này, Microsoft đã giới thiệu VASA–1, một khuôn khổ để tạo video mọi người nói chuyện từ hình ảnh tĩnh, mẫu âm thanh và tập lệnh văn bản, đồng thời tuyên bố – đúng vậy – nó quá nguy hiểm nếu được phát hành ra công chúng.

Những video do AI tạo ra này, trong đó mọi người có thể được làm hoạt hình một cách thuyết phục để nói những từ theo kịch bản bằng giọng nói nhân bản, chỉ là thứ mà Ủy ban Thương mại Liên bang Hoa Kỳ cảnh báo về tháng trước, sau lần trước đó đề xuất một quy tắc để ngăn chặn việc sử dụng công nghệ AI để lừa đảo mạo danh.

Nhóm của Microsoft thừa nhận rất nhiều trong thông báo, điều này giải thích rằng công nghệ này không được phát hành do những cân nhắc về mặt đạo đức. Họ nhấn mạnh rằng họ đang trình bày nghiên cứu nhằm tạo ra các nhân vật tương tác ảo chứ không phải để mạo danh bất kỳ ai. Do đó, không có sản phẩm hoặc API nào được lên kế hoạch.

“Nghiên cứu của chúng tôi tập trung vào việc tạo ra các kỹ năng cảm xúc trực quan cho hình đại diện AI ảo, hướng tới các ứng dụng tích cực,” boffins Redmond cho biết. “Nó không nhằm mục đích tạo ra nội dung dùng để gây hiểu lầm hoặc lừa dối.

“Tuy nhiên, giống như các kỹ thuật tạo nội dung liên quan khác, nó vẫn có thể bị lạm dụng để mạo danh con người. Chúng tôi phản đối bất kỳ hành vi nào nhằm tạo ra nội dung gây hiểu lầm hoặc có hại cho người thật và quan tâm đến việc áp dụng kỹ thuật của chúng tôi để nâng cao khả năng phát hiện giả mạo.”

Kevin Surace, Chủ tịch của Token, một công ty xác thực sinh trắc học và là diễn giả thường xuyên về AI sáng tạo, đã nói Đăng ký trong một email rằng mặc dù đã có những cuộc trình diễn công nghệ trước đây về các khuôn mặt được tạo hoạt hình từ một khung hình tĩnh và tệp giọng nói nhân bản, nhưng cuộc trình diễn của Microsoft phản ánh trình độ nghệ thuật.

Ông cho rằng: “Ý nghĩa của việc cá nhân hóa email và các hoạt động giao tiếp đại chúng khác trong kinh doanh là rất tuyệt vời”. “Ngay cả việc tạo hoạt ảnh cho những bức ảnh cũ hơn. Ở một mức độ nào đó, điều này chỉ mang lại niềm vui và ở một mức độ khác, nó có những ứng dụng kinh doanh vững chắc mà tất cả chúng ta sẽ sử dụng trong những tháng và năm tới.”

“Niềm vui” của deepfake là 96% nội dung khiêu dâm vô căn cứ, khi đánh giá [PDF] năm 2019 bởi công ty an ninh mạng Deeptrace.

Tuy nhiên, các nhà nghiên cứu của Microsoft gợi ý rằng việc có thể tạo ra những con người có vẻ ngoài thực tế và đưa lời nói vào miệng họ sẽ có những tác dụng tích cực.

Họ đề xuất trong một báo cáo: “Công nghệ như vậy hứa hẹn sẽ làm phong phú thêm giao tiếp kỹ thuật số, tăng khả năng tiếp cận cho những người bị suy giảm khả năng giao tiếp, chuyển đổi giáo dục, các phương pháp dạy kèm AI tương tác và cung cấp hỗ trợ trị liệu và tương tác xã hội trong chăm sóc sức khỏe”. bài nghiên cứu không chứa các từ "khiêu dâm" hoặc "thông tin sai lệch".

Mặc dù video do AI tạo ra được cho là không hoàn toàn giống với video deepfake, nhưng video deepfake xác định bằng thao tác kỹ thuật số trái ngược với phương pháp tạo sinh, sự khác biệt trở nên phi vật chất khi một hàng giả có sức thuyết phục có thể được tạo ra mà không cần ghép cắt và dán.

Khi được hỏi ông nghĩ gì về việc Microsoft không phát hành công nghệ này ra công chúng vì sợ lạm dụng, Surace bày tỏ nghi ngờ về khả năng tồn tại của các hạn chế.

Ông nói: “Microsoft và những người khác đã tạm dừng cho đến khi họ giải quyết được các vấn đề về quyền riêng tư và cách sử dụng. “Làm thế nào mọi người sẽ quản lý việc ai sử dụng điều này vì những lý do chính đáng?”

Surace nói thêm rằng đã có sẵn các mô hình nguồn mở phức tạp tương tự, chỉ ra EMO. Ông nhận xét: “Người ta có thể lấy mã nguồn từ GitHub và xây dựng một dịch vụ xung quanh nó có thể cạnh tranh với sản phẩm của Microsoft”. “Vì tính chất nguồn mở của không gian nên việc điều chỉnh nó sẽ là không thể trong mọi trường hợp.”

Điều đó cho thấy, các quốc gia trên thế giới đang cố gắng quản lý những người được tạo ra bởi AI. Canada, Trung Quốc, và UK, trong số các quốc gia khác, tất cả đều có các quy định có thể áp dụng cho deepfake, một số trong số đó đáp ứng các mục tiêu chính trị rộng lớn hơn. Nước Anh chỉ trong tuần này làm cho nó bất hợp pháp để tạo ra một hình ảnh deepfake khiêu dâm mà không có sự đồng ý. Việc chia sẻ những hình ảnh như vậy đã không được phép theo Đạo luật An toàn Trực tuyến năm 2023 của Vương quốc Anh.

Vào tháng 1, một nhóm các nhà lập pháp lưỡng đảng của Hoa Kỳ giới thiệu Đạo luật Phá vỡ hình ảnh giả mạo rõ ràng và chỉnh sửa không có sự đồng thuận năm 2024 (Đạo luật DEFIANCE), một dự luật tạo ra cách để nạn nhân của những hình ảnh giả mạo sâu không có sự đồng thuận có thể nộp đơn khiếu nại dân sự lên tòa án.

Và vào thứ Ba, ngày 16 tháng XNUMX, Ủy ban Tư pháp, Tiểu ban về Quyền riêng tư, Công nghệ và Luật của Thượng viện Hoa Kỳ đã tổ chức một buổi điều trần có tiêu đề “Giám sát AI: Deepfakes bầu cử.”

Trong phần nhận xét đã được chuẩn bị sẵn, Rijul Gupta, Giám đốc điều hành của DeepMedia, một công ty phát hiện deepfake, cho biết:

[T]khía cạnh đáng báo động nhất của deepfake là khả năng cung cấp cho những kẻ xấu khả năng phủ nhận chính đáng, cho phép họ loại bỏ nội dung xác thực là giả mạo. Sự xói mòn lòng tin của công chúng này đánh vào cốt lõi của cơ cấu xã hội và nền tảng của nền dân chủ của chúng ta. Bộ não con người, được cấu tạo để tin vào những gì nó nhìn thấy và nghe thấy, đặc biệt dễ bị tổn thương trước sự lừa dối của các tác phẩm giả mạo sâu. Khi những công nghệ này ngày càng trở nên phức tạp, chúng có nguy cơ làm suy yếu ý thức chung về thực tế vốn là nền tảng của xã hội chúng ta, tạo ra bầu không khí bất ổn và hoài nghi, nơi người dân đặt câu hỏi về tính xác thực của mọi thông tin họ gặp phải.

Nhưng hãy nghĩ đến các ứng dụng tiếp thị. ®

Dấu thời gian:

Thêm từ Đăng ký