Intel sanoo voivansa lajitella elävät ihmiset syväväärennöksistä reaaliajassa PlatoBlockchain Data Intelligencessa. Pystysuuntainen haku. Ai.

Intel sanoo voivansa erottaa elävät ihmiset syväväärennöksistä reaaliajassa

Intel väittää kehittäneensä tekoälymallin, joka voi havaita reaaliajassa, käyttääkö video syväväärennöstekniikkaa etsimällä hienovaraisia ​​värimuutoksia, jotka olisivat ilmeisiä, jos kohde olisi elävä ihminen.

Sirujenvalmistusjätti väittää FakeCatcherin pystyvän palauttamaan tulokset millisekunneissa ja sillä on 96 prosentin tarkkuus.

On ollut huolenaihe viime vuosina niin sanotuista deepfake-videoista, jotka käyttävät tekoälyalgoritmeja luomaan väärennettyä materiaalia ihmisistä. Suurin huolenaihe on keskittynyt siihen, että sitä mahdollisesti käytetään saamaan poliitikot tai julkkikset näyttämään lausunnoillaan tai tekevän asioita, joita he eivät todellisuudessa sanoneet tai tehneet.

"Deepfake-videoita on nyt kaikkialla. Olet luultavasti jo nähnyt ne; videoita julkkiksista tekemässä tai sanomassa asioita, joita he eivät ole koskaan tehneet", sanoi Intel Labsin henkilöstötutkija Ilke Demir. Eikä se vaikuta vain julkkiksiin tavallisia kansalaisia ovat olleet uhreja.

Siruvalmistajan mukaan jotkin syvään oppimiseen perustuvat ilmaisimet analysoivat raakavideodataa yrittääkseen löytää merkkejä, jotka tunnistaisivat sen väärennökseksi. Sitä vastoin FakeCatcher käyttää erilaista lähestymistapaa, jossa analysoidaan oikeita videoita visuaalisten vihjeiden saamiseksi, jotka osoittavat kohteen olevan todellinen.

Tämä sisältää hienovaraiset värimuutokset videon pikseleissä, jotka johtuvat sydämen verenvirtauksesta, joka pumppaa verta ympäri kehoa. Nämä verenvirtaussignaalit kerätään kaikkialta kasvoilta, ja algoritmit muuttavat ne spatiotemporaalisiksi kartoiksi, Intel sanoi, mikä mahdollistaa syvän oppimismallin havaitsemisen, onko video todellinen vai ei. Jotkin tunnistustyökalut vaativat videosisällön lataamisen analysointia varten, minkä jälkeen tulosten odotusaika on tuntikausia, se väitti.

On kuitenkin mahdotonta kuvitella, että kuka tahansa, jolla on motiivit luoda videoväärennöksiä, voisi kehittää algoritmeja, jotka voivat huijata FakeCatcheria, jos aikaa ja resursseja riittää.

Intel on luonnollisesti käyttänyt tarpeeksi laajasti omia teknologioitaan FakeCatcherin kehittämisessä, mukaan lukien OpenVINO avoimen lähdekoodin työkalupakki syväoppimismallien optimointiin ja OpenCV reaaliaikaisten kuvien ja videoiden käsittelyyn. Kehittäjätiimit käyttivät myös Open Visual Cloud -alustaa tarjotakseen integroidun ohjelmistopinon Intelin Xeon Scalable -prosessoreille. FakeCatcher-ohjelmisto voi ajaa jopa 72 erilaista tunnistusvirtaa samanaikaisesti 3. sukupolven Xeon Scalable -prosessoreissa.

Intelin mukaan FakeCatcherilla on useita mahdollisia käyttötapauksia, mukaan lukien käyttäjien estäminen lataamasta haitallisia syväväärennösvideoita sosiaaliseen mediaan ja auttaa uutisorganisaatioita välttämään manipuloidun sisällön lähettämistä. ®

Aikaleima:

Lisää aiheesta Rekisteri