Intel zegt dat het de levende mensen kan onderscheiden van de deepfakes in realtime PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Intel zegt dat het de levende mensen in realtime kan scheiden van de deepfakes

Intel beweert dat het een AI-model heeft ontwikkeld dat in realtime kan detecteren of een video deepfake-technologie gebruikt door te zoeken naar subtiele kleurveranderingen die duidelijk zouden zijn als het onderwerp een levend mens zou zijn.

FakeCatcher wordt door de chipmaker beweerd in staat te zijn om resultaten in milliseconden terug te sturen en een nauwkeurigheidspercentage van 96 procent te hebben.

Er is bezorgdheid de afgelopen jaren over zogenaamde deepfake-video's, die AI-algoritmen gebruiken om vervalste beelden van mensen te genereren. De grootste zorg is dat het mogelijk wordt gebruikt om politici of beroemdheden te laten lijken alsof ze uitspraken doen of dingen doen die ze niet echt hebben gezegd of gedaan.

โ€œDeepfake-video's zijn nu overal. Je hebt ze waarschijnlijk al gezien; video's van beroemdheden die dingen doen of zeggen die ze eigenlijk nooit hebben gedaan", zegt Ilke Demir, stafonderzoeker van Intel Labs. En het treft zelfs niet alleen beroemdheden gewone burgers slachtoffers zijn geworden.

Volgens de chipmaker analyseren sommige op deep learning gebaseerde detectoren de onbewerkte videogegevens om te proberen veelbetekenende signalen te vinden die het als nep zouden identificeren. FakeCatcher daarentegen heeft een andere benadering, waarbij echte video's worden geanalyseerd op visuele aanwijzingen die aangeven dat het onderwerp echt is.

Dit omvat subtiele kleurveranderingen in de pixels van een video als gevolg van de bloedstroom vanuit het hart dat het bloed door het lichaam pompt. Deze bloedstroomsignalen worden van over het hele gezicht verzameld en algoritmen vertalen deze in spatiotemporele kaarten, zei Intel, waardoor een deep learning-model kan detecteren of een video echt is of niet. Sommige detectietools vereisen dat video-inhoud wordt geรผpload voor analyse en vervolgens uren wordt gewacht op resultaten, beweerde het.

Het ligt echter niet buiten het bereik van de mogelijkheid om je voor te stellen dat iedereen met de motieven om video-nepvideo's te maken, in staat zou kunnen zijn om algoritmen te ontwikkelen die FakeCatcher voor de gek kunnen houden, mits er voldoende tijd en middelen zijn.

Intel heeft natuurlijk uitgebreid gebruik gemaakt van zijn eigen technologieรซn bij het ontwikkelen van FakeCatcher, waaronder de OpenVINO open-source toolkit voor het optimaliseren van deep learning-modellen en OpenCV voor het verwerken van real-time afbeeldingen en video's. De ontwikkelaarsteams gebruikten ook het Open Visual Cloud-platform om een โ€‹โ€‹geรฏntegreerde softwarestack te bieden voor Intel's Xeon Scalable-processors. De FakeCatcher-software kan tot 72 verschillende detectiestreams tegelijk uitvoeren op 3e generatie Xeon schaalbare processors.

Volgens Intel zijn er verschillende mogelijke use-cases voor FakeCatcher, waaronder het voorkomen dat gebruikers schadelijke deepfake-video's uploaden naar sociale media en het helpen van nieuwsorganisaties om te voorkomen dat gemanipuleerde inhoud wordt uitgezonden. ยฎ

Tijdstempel:

Meer van Het register