Az Intel szerint valós idejű PlatoBlockchain Data Intelligence rendszerben képes elkülöníteni az élő emberi lényeket a mélyhamisításoktól. Függőleges keresés. Ai.

Az Intel szerint valós időben képes elkülöníteni az élő emberi lényeket a mélyhamisításoktól

Az Intel azt állítja, hogy kifejlesztett egy mesterséges intelligencia-modellt, amely valós időben képes észlelni, hogy egy videó mélyhamisítási technológiát használ-e, és olyan finom színváltozásokat keres, amelyek nyilvánvalóak lennének, ha az alany élő ember lenne.

A chipgyártó óriás azt állítja, hogy a FakeCatcher ezredmásodperc alatt képes visszaadni az eredményeket, és 96 százalékos pontossággal rendelkezik.

Nem volt aggodalom az elmúlt években az úgynevezett mélyhamisított videók miatt, amelyek mesterséges intelligencia algoritmusokat használnak hamis felvételek létrehozására emberekről. A fő probléma az volt, hogy potenciálisan arra használják fel a politikusokat vagy hírességeket, hogy olyan kijelentéseket adnak ki, vagy olyan dolgokat tesznek, amelyeket valójában nem mondtak vagy tesznek.

„A mélyhamis videók ma már mindenhol jelen vannak. Valószínűleg már láttad őket; videók hírességekről, amikről olyan dolgokat csinálnak vagy mondanak, amelyeket valójában soha nem tettek” – mondta az Intel Labs munkatársa, Ilke Demir kutató. És ez nem csak a hírességeket érinti, sőt hétköznapi polgárok áldozatai lettek.

A chipgyártó szerint néhány mély tanuláson alapuló detektor elemzi a nyers videó adatokat, hogy megpróbáljon olyan árulkodó jeleket találni, amelyek hamisítványként azonosítanák azokat. Ezzel szemben a FakeCatcher más megközelítést alkalmaz, és magában foglalja a valódi videók elemzését olyan vizuális jelek után, amelyek azt mutatják, hogy a téma valódi.

Ez magában foglalja a videó képpontjainak finom színváltozásait, amelyek a szívből kiáramló véráramlás miatt a testben vért pumpálnak. Ezeket a véráramlási jeleket az egész arcról gyűjtik, és az algoritmusok ezeket térbeli és időbeli térképekké alakítják át, mondta az Intel, lehetővé téve egy mély tanulási modellnek annak kimutatását, hogy egy videó valódi-e vagy sem. Egyes észlelési eszközök megkövetelik, hogy videótartalmat töltsenek fel elemzéshez, majd órákat várjanak az eredményekre.

Nem szabad azonban elképzelni, hogy bárki, akinek motivációja van videohamisítványok létrehozására, képes lenne olyan algoritmusokat kifejleszteni, amelyek becsaphatják a FakeCatchert, ha elegendő időt és erőforrást kapnak.

Az Intel természetesen elég széles körben használta saját technológiáit a FakeCatcher fejlesztése során, beleértve az OpenVINO nyílt forráskódú eszközkészletet a mély tanulási modellek optimalizálásához és az OpenCV-t a valós idejű képek és videók feldolgozásához. A fejlesztői csapatok az Open Visual Cloud platformot is használták, hogy integrált szoftvercsomagot biztosítsanak az Intel Xeon Scalable processzoraihoz. A FakeCatcher szoftver akár 72 különböző észlelési adatfolyamot is képes futtatni egyidejűleg a 3. generációs Xeon Scalable processzorokon.

Az Intel szerint a FakeCatchernek számos lehetséges felhasználási esete van, többek között meg kell akadályozni a felhasználókat abban, hogy káros mélyhamis videókat töltsenek fel a közösségi médiára, és segít a hírszervezeteknek, hogy elkerüljék a manipulált tartalmak sugárzását. ®

Időbélyeg:

Még több A regisztráció