Intel cho biết họ có thể sắp xếp con người sống khỏi các tác phẩm sâu trong Trí tuệ dữ liệu PlatoBlockchain theo thời gian thực. Tìm kiếm dọc. Ái.

Intel cho biết họ có thể sắp xếp những con người sống khỏi các tác phẩm sâu trong thời gian thực

Intel tuyên bố họ đã phát triển một mô hình AI có thể phát hiện theo thời gian thực liệu một video có sử dụng công nghệ deepfake hay không bằng cách tìm kiếm những thay đổi tinh tế về màu sắc sẽ thấy rõ nếu đối tượng là người thật.

FakeCatcher được gã khổng lồ sản xuất chip tuyên bố là có khả năng trả về kết quả tính bằng mili giây và có tỷ lệ chính xác 96%.

Hiện đã có liên quan trong những năm gần đây về cái gọi là video deepfake, sử dụng thuật toán AI để tạo ra cảnh quay giả mạo về con người. Mối quan tâm chính tập trung vào việc nó có khả năng được sử dụng để khiến các chính trị gia hoặc người nổi tiếng dường như đang lên tiếng tuyên bố hoặc làm những việc mà họ không thực sự nói hoặc làm.

“Video Deepfake hiện có ở khắp mọi nơi. Bạn có thể đã nhìn thấy chúng; nhà khoa học nghiên cứu nhân viên Phòng thí nghiệm Intel Ilke Demir cho biết. Và nó không chỉ ảnh hưởng đến những người nổi tiếng, thậm chí công dân bình thường đã từng là nạn nhân.

Theo nhà sản xuất chip, một số công cụ phát hiện dựa trên học sâu phân tích dữ liệu video thô để cố gắng tìm ra các dấu hiệu nhận biết video đó là giả mạo. Ngược lại, FakeCatcher thực hiện một cách tiếp cận khác, liên quan đến việc phân tích các video thực để tìm các dấu hiệu trực quan cho biết đối tượng là có thật.

Điều này bao gồm những thay đổi tinh tế về màu sắc trong pixel của video do dòng máu từ tim bơm máu đi khắp cơ thể. Intel cho biết các tín hiệu lưu lượng máu này được thu thập từ khắp nơi trên khuôn mặt và các thuật toán chuyển chúng thành các bản đồ không gian thời gian, cho phép một mô hình học sâu phát hiện xem video có thật hay không. Một số công cụ phát hiện yêu cầu nội dung video phải được tải lên để phân tích, sau đó đợi hàng giờ để có kết quả.

Tuy nhiên, không ngoài khả năng tưởng tượng rằng bất kỳ ai có động cơ tạo video giả mạo đều có thể phát triển các thuật toán có thể đánh lừa FakeCatcher nếu có đủ thời gian và nguồn lực.

Intel đương nhiên đã sử dụng rộng rãi các công nghệ của riêng mình trong việc phát triển FakeCatcher, bao gồm bộ công cụ nguồn mở OpenVINO để tối ưu hóa các mô hình học sâu và OpenCV để xử lý hình ảnh và video thời gian thực. Các nhóm nhà phát triển cũng đã sử dụng nền tảng Open Visual Cloud để cung cấp ngăn xếp phần mềm tích hợp cho bộ xử lý Xeon Scalable của Intel. Phần mềm FakeCatcher có thể chạy đồng thời tới 72 luồng phát hiện khác nhau trên bộ xử lý Xeon Scalable thế hệ thứ 3.

Theo Intel, có một số trường hợp sử dụng tiềm năng cho FakeCatcher, bao gồm ngăn người dùng tải video deepfake có hại lên phương tiện truyền thông xã hội và giúp các tổ chức tin tức tránh phát nội dung bị thao túng. ®

Dấu thời gian:

Thêm từ Đăng ký