Intel twierdzi, że może sortować żywych ludzi od deepfakes w czasie rzeczywistym PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Intel twierdzi, że może sortować żywe istoty ludzkie od deepfake'ów w czasie rzeczywistym

Intel twierdzi, że opracował model sztucznej inteligencji, który może wykrywać w czasie rzeczywistym, czy wideo wykorzystuje technologię deepfake, szukając subtelnych zmian w kolorze, które byłyby oczywiste, gdyby podmiotem był żywy człowiek.

Gigant produkujący chipy twierdzi, że FakeCatcher jest w stanie zwracać wyniki w milisekundach i ma 96-procentowy wskaźnik dokładności.

Nastąpił troska w ostatnich latach nad tak zwanymi filmami deepfake, które wykorzystują algorytmy sztucznej inteligencji do generowania sfałszowanych nagrań ludzi. Główna obawa skupiła się na tym, że może zostać wykorzystana do sprawienia, by politycy lub celebryci wydawali się wyrażać oświadczenia lub robić rzeczy, których tak naprawdę nie powiedzieli ani nie zrobili.

„Filmy deepfake są teraz wszędzie. Prawdopodobnie już je widziałeś; filmów, na których celebryci robią lub mówią rzeczy, których nigdy nie robili” — powiedział Ilke Demir, pracownik naukowy Intel Labs. I dotyczy to nie tylko celebrytów zwyczajni obywatele byli ofiarami.

Według producenta chipów niektóre detektory oparte na głębokim uczeniu analizują surowe dane wideo, aby znaleźć znaki ostrzegawcze, które identyfikują je jako fałszywe. Z kolei FakeCatcher stosuje inne podejście, polegające na analizie prawdziwych filmów pod kątem wizualnych wskazówek wskazujących, że obiekt jest prawdziwy.

Obejmuje to subtelne zmiany koloru w pikselach wideo spowodowane przepływem krwi z serca pompującego krew do całego ciała. Te sygnały przepływu krwi są zbierane z całej twarzy, a algorytmy tłumaczą je na mapy czasoprzestrzenne, powiedział Intel, umożliwiając modelowi głębokiego uczenia się wykrycie, czy wideo jest prawdziwe, czy nie. Twierdził, że niektóre narzędzia do wykrywania wymagają przesłania treści wideo do analizy, a następnie kilkugodzinnego oczekiwania na wyniki.

Jednak można sobie wyobrazić, że każdy, kto ma motywy do tworzenia podróbek wideo, może opracować algorytmy, które mogą oszukać FakeCatchera, mając wystarczająco dużo czasu i zasobów.

Intel w naturalny sposób szeroko wykorzystywał własne technologie przy opracowywaniu FakeCatchera, w tym zestaw narzędzi open-source OpenVINO do optymalizacji modeli głębokiego uczenia się oraz OpenCV do przetwarzania obrazów i filmów w czasie rzeczywistym. Zespoły programistów wykorzystały również platformę Open Visual Cloud, aby zapewnić zintegrowany stos oprogramowania dla procesorów Intel Xeon Scalable. Oprogramowanie FakeCatcher może obsługiwać do 72 różnych strumieni wykrywania jednocześnie na procesorach Xeon Scalable trzeciej generacji.

Według Intela istnieje kilka potencjalnych zastosowań FakeCatchera, w tym zapobieganie przesyłaniu przez użytkowników szkodliwych filmów typu deepfake do mediów społecznościowych oraz pomaganie organizacjom informacyjnym w unikaniu nadawania zmanipulowanych treści. ®

Znak czasu:

Więcej z Rejestr