Tuần này, Microsoft đã giới thiệu VASA–1, một khuôn khổ để tạo video mọi người nói chuyện từ hình ảnh tĩnh, mẫu âm thanh và tập lệnh văn bản, đồng thời tuyên bố – đúng vậy – nó quá nguy hiểm nếu được phát hành ra công chúng.
Những video do AI tạo ra này, trong đó mọi người có thể được làm hoạt hình một cách thuyết phục để nói những từ theo kịch bản bằng giọng nói nhân bản, chỉ là thứ mà Ủy ban Thương mại Liên bang Hoa Kỳ cảnh báo về tháng trước, sau lần trước đó đề xuất một quy tắc để ngăn chặn việc sử dụng công nghệ AI để lừa đảo mạo danh.
Nhóm của Microsoft thừa nhận rất nhiều trong thông báo, điều này giải thích rằng công nghệ này không được phát hành do những cân nhắc về mặt đạo đức. Họ nhấn mạnh rằng họ đang trình bày nghiên cứu nhằm tạo ra các nhân vật tương tác ảo chứ không phải để mạo danh bất kỳ ai. Do đó, không có sản phẩm hoặc API nào được lên kế hoạch.
“Nghiên cứu của chúng tôi tập trung vào việc tạo ra các kỹ năng cảm xúc trực quan cho hình đại diện AI ảo, hướng tới các ứng dụng tích cực,” boffins Redmond cho biết. “Nó không nhằm mục đích tạo ra nội dung dùng để gây hiểu lầm hoặc lừa dối.
“Tuy nhiên, giống như các kỹ thuật tạo nội dung liên quan khác, nó vẫn có thể bị lạm dụng để mạo danh con người. Chúng tôi phản đối bất kỳ hành vi nào nhằm tạo ra nội dung gây hiểu lầm hoặc có hại cho người thật và quan tâm đến việc áp dụng kỹ thuật của chúng tôi để nâng cao khả năng phát hiện giả mạo.”
Kevin Surace, Chủ tịch của Token, một công ty xác thực sinh trắc học và là diễn giả thường xuyên về AI sáng tạo, đã nói Đăng ký trong một email rằng mặc dù đã có những cuộc trình diễn công nghệ trước đây về các khuôn mặt được tạo hoạt hình từ một khung hình tĩnh và tệp giọng nói nhân bản, nhưng cuộc trình diễn của Microsoft phản ánh trình độ nghệ thuật.
Ông cho rằng: “Ý nghĩa của việc cá nhân hóa email và các hoạt động giao tiếp đại chúng khác trong kinh doanh là rất tuyệt vời”. “Ngay cả việc tạo hoạt ảnh cho những bức ảnh cũ hơn. Ở một mức độ nào đó, điều này chỉ mang lại niềm vui và ở một mức độ khác, nó có những ứng dụng kinh doanh vững chắc mà tất cả chúng ta sẽ sử dụng trong những tháng và năm tới.”
“Niềm vui” của deepfake là 96% nội dung khiêu dâm vô căn cứ, khi đánh giá [PDF] năm 2019 bởi công ty an ninh mạng Deeptrace.
Tuy nhiên, các nhà nghiên cứu của Microsoft gợi ý rằng việc có thể tạo ra những con người có vẻ ngoài thực tế và đưa lời nói vào miệng họ sẽ có những tác dụng tích cực.
Họ đề xuất trong một báo cáo: “Công nghệ như vậy hứa hẹn sẽ làm phong phú thêm giao tiếp kỹ thuật số, tăng khả năng tiếp cận cho những người bị suy giảm khả năng giao tiếp, chuyển đổi giáo dục, các phương pháp dạy kèm AI tương tác và cung cấp hỗ trợ trị liệu và tương tác xã hội trong chăm sóc sức khỏe”. bài nghiên cứu không chứa các từ "khiêu dâm" hoặc "thông tin sai lệch".
Mặc dù video do AI tạo ra được cho là không hoàn toàn giống với video deepfake, nhưng video deepfake xác định bằng thao tác kỹ thuật số trái ngược với phương pháp tạo sinh, sự khác biệt trở nên phi vật chất khi một hàng giả có sức thuyết phục có thể được tạo ra mà không cần ghép cắt và dán.
Khi được hỏi ông nghĩ gì về việc Microsoft không phát hành công nghệ này ra công chúng vì sợ lạm dụng, Surace bày tỏ nghi ngờ về khả năng tồn tại của các hạn chế.
Ông nói: “Microsoft và những người khác đã tạm dừng cho đến khi họ giải quyết được các vấn đề về quyền riêng tư và cách sử dụng. “Làm thế nào mọi người sẽ quản lý việc ai sử dụng điều này vì những lý do chính đáng?”
Surace nói thêm rằng đã có sẵn các mô hình nguồn mở phức tạp tương tự, chỉ ra EMO. Ông nhận xét: “Người ta có thể lấy mã nguồn từ GitHub và xây dựng một dịch vụ xung quanh nó có thể cạnh tranh với sản phẩm của Microsoft”. “Vì tính chất nguồn mở của không gian nên việc điều chỉnh nó sẽ là không thể trong mọi trường hợp.”
Điều đó cho thấy, các quốc gia trên thế giới đang cố gắng quản lý những người được tạo ra bởi AI. Canada, Trung Quốc, và UK, trong số các quốc gia khác, tất cả đều có các quy định có thể áp dụng cho deepfake, một số trong số đó đáp ứng các mục tiêu chính trị rộng lớn hơn. Nước Anh chỉ trong tuần này làm cho nó bất hợp pháp để tạo ra một hình ảnh deepfake khiêu dâm mà không có sự đồng ý. Việc chia sẻ những hình ảnh như vậy đã không được phép theo Đạo luật An toàn Trực tuyến năm 2023 của Vương quốc Anh.
Vào tháng 1, một nhóm các nhà lập pháp lưỡng đảng của Hoa Kỳ giới thiệu Đạo luật Phá vỡ hình ảnh giả mạo rõ ràng và chỉnh sửa không có sự đồng thuận năm 2024 (Đạo luật DEFIANCE), một dự luật tạo ra cách để nạn nhân của những hình ảnh giả mạo sâu không có sự đồng thuận có thể nộp đơn khiếu nại dân sự lên tòa án.
Và vào thứ Ba, ngày 16 tháng XNUMX, Ủy ban Tư pháp, Tiểu ban về Quyền riêng tư, Công nghệ và Luật của Thượng viện Hoa Kỳ đã tổ chức một buổi điều trần có tiêu đề “Giám sát AI: Deepfakes bầu cử.”
Trong phần nhận xét đã được chuẩn bị sẵn, Rijul Gupta, Giám đốc điều hành của DeepMedia, một công ty phát hiện deepfake, cho biết:
[T]khía cạnh đáng báo động nhất của deepfake là khả năng cung cấp cho những kẻ xấu khả năng phủ nhận chính đáng, cho phép họ loại bỏ nội dung xác thực là giả mạo. Sự xói mòn lòng tin của công chúng này đánh vào cốt lõi của cơ cấu xã hội và nền tảng của nền dân chủ của chúng ta. Bộ não con người, được cấu tạo để tin vào những gì nó nhìn thấy và nghe thấy, đặc biệt dễ bị tổn thương trước sự lừa dối của các tác phẩm giả mạo sâu. Khi những công nghệ này ngày càng trở nên phức tạp, chúng có nguy cơ làm suy yếu ý thức chung về thực tế vốn là nền tảng của xã hội chúng ta, tạo ra bầu không khí bất ổn và hoài nghi, nơi người dân đặt câu hỏi về tính xác thực của mọi thông tin họ gặp phải.
Nhưng hãy nghĩ đến các ứng dụng tiếp thị. ®
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- nguồn: https://go.theregister.com/feed/www.theregister.com/2024/04/20/microsoft_deepfake_vasa/
- : có
- :là
- :không phải
- :Ở đâu
- 16
- 2019
- 2023
- 2024
- 7
- a
- có khả năng
- Có khả năng
- Giới thiệu
- khả năng tiếp cận
- công nhận
- Hành động
- diễn viên
- thêm
- thăng tiến
- Sau
- AI
- Định hướng
- Tất cả
- Cho phép
- Đã
- trong số
- an
- và
- Một
- bất kì
- bất kỳ ai
- api
- các ứng dụng
- áp dụng
- Nộp đơn
- Tháng Tư
- LÀ
- được cho là
- xung quanh
- Nghệ thuật
- AS
- khía cạnh
- At
- âm thanh
- Xác thực
- Hình đại diện
- trở lại
- Bad
- BE
- bởi vì
- trở nên
- trở thành
- được
- hành vi
- được
- Tin
- Hóa đơn
- biometric
- xác thực sinh trắc học
- lưỡng đảng
- biz
- Brain
- Anh
- rộng hơn
- xây dựng
- kinh doanh
- Ứng dụng kinh doanh
- by
- CAN
- trường hợp
- giám đốc điều hành
- Ghế
- nhân vật
- Công dân
- dân sự
- xin
- tuyên bố
- Khí hậu
- CO
- mã
- đến
- hoa hồng
- ủy ban
- Giao tiếp
- đồng ý
- sự cân nhắc
- chứa
- nội dung
- Tạo nội dung
- nội dung
- Trung tâm
- có thể
- nước
- Tòa án
- tạo
- tạo ra
- Tạo
- An ninh mạng
- Nguy hiểm
- lừa dối
- lừa dối
- deepfakes
- Sự khinh thường
- Dân chủ
- trình diễn
- Phát hiện
- kỹ thuật số
- Bỏ qua
- Làm gián đoạn
- phân biệt
- làm
- nghi ngờ
- hai
- Đào tạo
- Bầu cử
- gặp gỡ
- làm giàu
- đạo đức
- Ngay cả
- Mỗi
- Giải thích
- bày tỏ
- mức độ
- vải
- khuôn mặt
- thực tế
- giả mạo
- sợ hãi
- Liên bang
- Ủy ban Thương mại liên bang
- Tập tin
- Công ty
- tập trung
- Trong
- giả mạo
- sự giả mạo
- Foundations
- FRAME
- Khung
- gian lận
- thường xuyên
- từ
- FTC
- Hoàn thành
- vui vẻ
- tạo ra
- tạo ra
- thế hệ
- thế hệ
- Trí tuệ nhân tạo
- chính hãng
- GitHub
- Các mục tiêu
- tốt
- Nhóm
- Gupta
- có hại
- Có
- he
- chăm sóc sức khỏe
- Được tổ chức
- giữ
- Độ đáng tin của
- Tuy nhiên
- HTML
- HTTPS
- Nhân loại
- Con người
- hình ảnh
- hình ảnh
- hàm ý
- không thể
- in
- tăng
- lên
- thông tin
- dự định
- tương tác
- tương tác
- quan tâm
- các vấn đề
- IT
- Tháng một
- jpg
- chỉ
- Tư pháp
- Họ
- Luật
- nhà lập pháp
- trái
- Pháp luật
- Lượt thích
- tìm kiếm
- LÀM CHO
- Thao tác
- Marketing
- Thánh Lễ
- phương pháp
- phương pháp
- microsoft
- Thông tin sai
- gây hiểu lầm
- sử dụng sai
- mô hình
- tháng
- tháng
- hầu hết
- nhiều
- Quốc
- Thiên nhiên
- Không
- tại
- of
- cũ
- on
- ONE
- Trực tuyến
- mở
- mã nguồn mở
- phản đối
- or
- Nền tảng khác
- Khác
- vfoXNUMXfipXNUMXhfpiXNUMXufhpiXNUMXuf
- ra
- đầu ra
- Giám sát
- đặc biệt
- người
- phần trăm
- người
- Những bức ảnh
- mảnh
- kế hoạch
- plato
- Thông tin dữ liệu Plato
- PlatoDữ liệu
- hợp lý
- chính trị
- tích cực
- có khả năng
- chuẩn bị
- trình bày
- ngăn chặn
- trước đây
- Trước khi
- riêng tư
- Sản phẩm
- lời hứa
- đề xuất
- cho
- cung cấp
- công khai
- lòng tin của công
- đặt
- khá
- RE
- thực
- thực tế
- Thực tế
- lý do
- phản ánh
- Quy định
- điều tiết
- quy định
- liên quan
- phát hành
- phát hành
- phát hành
- nghiên cứu
- nhà nghiên cứu
- hạn chế
- ngay
- Đua tranh
- s
- Sự An Toàn
- Nói
- tương tự
- mẫu
- kịch bản
- nhìn
- Thượng nghị viện
- ý nghĩa
- dịch vụ
- chia sẻ
- chia sẻ
- Tương tự
- Chủ nghĩa hoài nghi
- kỹ năng
- Mạng xã hội
- Xã hội
- rắn
- một số
- tinh vi
- nguồn
- mã nguồn
- Không gian
- nói
- Loa
- Tiểu bang
- Vẫn còn
- Đình công
- tiểu ban
- như vậy
- đề nghị
- hỗ trợ
- nói
- nhóm
- công nghệ cao
- kỹ thuật
- kỹ thuật
- Công nghệ
- Công nghệ
- văn bản
- việc này
- Sản phẩm
- luật
- Nguồn
- Nhà nước
- Anh
- thế giới
- cung cấp their dịch
- Them
- Đó
- Kia là
- họ
- điều
- nghĩ
- điều này
- tuần này
- những
- hăm dọa
- có tiêu đề
- đến
- mã thông báo
- nói với
- quá
- thương mại
- biến đổi
- NIỀM TIN
- cố gắng
- Thứ Ba
- Dạy kèm
- Uk
- Không chắc chắn
- Dưới
- Phá hoại
- cho đến khi
- Công bố
- us
- Liên bang Hoa Kỳ
- Hoa hồng thương mại liên bang của chúng tôi
- Các nhà lập pháp Hoa Kỳ
- Thượng viện Hoa Kỳ
- Sử dụng
- sử dụng
- đã sử dụng
- sử dụng
- rất
- khả năng tồn tại
- nạn nhân
- Video
- Video
- ảo
- trực quan
- Giọng nói
- Dễ bị tổn thương
- là
- Đường..
- we
- tuần
- TỐT
- Điều gì
- khi nào
- cái nào
- trong khi
- CHÚNG TÔI LÀ
- sẽ
- với
- không có
- từ
- Công việc
- tập thể dục
- thế giới
- sẽ
- năm
- zephyrnet