Intel sier at de kan sortere de levende menneskene fra deepfakes i sanntid PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Intel sier at de kan sortere de levende menneskene fra deepfakes i sanntid

Intel hevder de har utviklet en AI-modell som kan oppdage i sanntid om en video bruker dypfalske teknologi ved å se etter subtile fargeendringer som ville vært tydelige hvis motivet var et levende menneske.

FakeCatcher hevdes av brikkefremstillingsgiganten å være i stand til å returnere resultater på millisekunder og å ha en nøyaktighetsgrad på 96 prosent.

Det har vært bekymring de siste årene over såkalte deepfake-videoer, som bruker AI-algoritmer for å generere falske opptak av mennesker. Hovedbekymringen har sentrert seg om at det potensielt kan brukes til å få politikere eller kjendiser til å se ut til å uttale seg eller gjøre ting som de faktisk ikke har sagt eller gjort.

«Deepfake-videoer er overalt nå. Du har sikkert allerede sett dem; videoer av kjendiser som gjør eller sier ting de faktisk aldri har gjort, sier forsker Ilke Demir ved Intel Labs. Og det påvirker ikke bare kjendiser, til og med vanlige borgere har vært ofre.

I følge brikkeprodusenten analyserer noen dyplæringsbaserte detektorer de rå videodataene for å prøve å finne avslørende tegn som kan identifisere den som en falsk. Derimot tar FakeCatcher en annen tilnærming, som involverer å analysere ekte videoer for visuelle signaler som indikerer at motivet er ekte.

Dette inkluderer subtile endringer i fargen i pikslene i en video på grunn av blodstrømmen fra hjertet som pumper blod rundt i kroppen. Disse blodstrømsignalene samles inn fra hele ansiktet og algoritmer oversetter disse til spatiotemporale kart, sa Intel, som gjør det mulig for en dyp læringsmodell å oppdage om en video er ekte eller ikke. Noen gjenkjenningsverktøy krever at videoinnhold lastes opp for analyse, og deretter venter timer på resultater, hevdet det.

Det er imidlertid ikke utenfor mulighetenes rike å forestille seg at alle med motiver for å lage videoforfalskninger kan være i stand til å utvikle algoritmer som kan lure FakeCatcher, gitt nok tid og ressurser.

Intel har naturlig nok gjort mye bruk av sine egne teknologier i utviklingen av FakeCatcher, inkludert OpenVINO åpen kildekode-verktøysett for å optimalisere dyplæringsmodeller og OpenCV for behandling av sanntidsbilder og videoer. Utviklerteamene brukte også Open Visual Cloud-plattformen for å tilby en integrert programvarestabel for Intels Xeon Scalable-prosessorer. FakeCatcher-programvaren kan kjøre opptil 72 forskjellige deteksjonsstrømmer samtidig på 3. generasjons Xeon-skalerbare prosessorer.

Ifølge Intel er det flere potensielle brukstilfeller for FakeCatcher, inkludert å hindre brukere i å laste opp skadelige dypfalske videoer til sosiale medier, og hjelpe nyhetsorganisasjoner med å unngå å kringkaste manipulert innhold. ®

Tidstempel:

Mer fra Registeret