Intel sagt, dass es mit PlatoBlockchain Data Intelligence in Echtzeit die lebenden Menschen von den Deepfakes trennen kann. Vertikale Suche. Ai.

Intel sagt, dass es die lebenden Menschen in Echtzeit von den Deepfakes trennen kann

Intel behauptet, ein KI-Modell entwickelt zu haben, das in Echtzeit erkennen kann, ob ein Video Deepfake-Technologie verwendet, indem es nach subtilen Farbänderungen sucht, die offensichtlich wären, wenn das Motiv ein lebender Mensch wäre.

Der Chiphersteller behauptet, dass FakeCatcher in der Lage ist, Ergebnisse in Millisekunden zurückzugeben und eine Genauigkeitsrate von 96 Prozent zu haben.

Es hat Sorge in den letzten Jahren über sogenannte Deepfake-Videos, die mithilfe von KI-Algorithmen gefälschte Aufnahmen von Personen erzeugen. Die Hauptsorge konzentrierte sich darauf, dass es möglicherweise dazu verwendet wird, Politiker oder Prominente dazu zu bringen, Aussagen zu machen oder Dinge zu tun, die sie nicht wirklich gesagt oder getan haben.

„Deepfake-Videos sind jetzt überall. Sie haben sie wahrscheinlich schon gesehen; Videos von Prominenten, die Dinge tun oder sagen, die sie eigentlich nie getan haben“, sagte die Forschungswissenschaftlerin Ilke Demir von Intel Labs. Und es betrifft nicht einmal nur Prominente gewöhnliche Bürger Opfer geworden sind.

Nach Angaben des Chipherstellers analysieren einige auf Deep Learning basierende Detektoren die rohen Videodaten, um zu versuchen, verräterische Anzeichen zu finden, die sie als Fälschung identifizieren würden. Im Gegensatz dazu verfolgt FakeCatcher einen anderen Ansatz und analysiert echte Videos auf visuelle Hinweise, die darauf hinweisen, dass das Motiv echt ist.

Dazu gehören subtile Farbänderungen in den Pixeln eines Videos aufgrund des Blutflusses vom Herzen, das Blut durch den Körper pumpt. Diese Blutflusssignale werden im ganzen Gesicht gesammelt und Algorithmen übersetzen diese in räumlich-zeitliche Karten, so Intel, wodurch ein Deep-Learning-Modell erkennen kann, ob ein Video echt ist oder nicht. Einige Erkennungstools erfordern, dass Videoinhalte zur Analyse hochgeladen werden und dann stundenlang auf Ergebnisse warten, heißt es.

Es ist jedoch nicht jenseits des Bereichs der Möglichkeiten, sich vorzustellen, dass jeder mit den Motiven, Videofälschungen zu erstellen, in der Lage sein könnte, Algorithmen zu entwickeln, die FakeCatcher täuschen können, sofern genügend Zeit und Ressourcen vorhanden sind.

Natürlich hat Intel bei der Entwicklung von FakeCatcher ausgiebig auf eigene Technologien zurückgegriffen, darunter das Open-Source-Toolkit OpenVINO zur Optimierung von Deep-Learning-Modellen und OpenCV zur Verarbeitung von Echtzeitbildern und -videos. Die Entwicklerteams nutzten die Open Visual Cloud-Plattform auch, um einen integrierten Software-Stack für die skalierbaren Xeon-Prozessoren von Intel bereitzustellen. Die FakeCatcher-Software kann bis zu 72 verschiedene Erkennungsströme gleichzeitig auf skalierbaren Xeon-Prozessoren der 3. Generation ausführen.

Laut Intel gibt es mehrere potenzielle Anwendungsfälle für FakeCatcher, darunter das Verhindern, dass Benutzer schädliche Deepfake-Videos in soziale Medien hochladen, und das Helfen von Nachrichtenorganisationen, die Ausstrahlung manipulierter Inhalte zu vermeiden. ®

Zeitstempel:

Mehr von Das Register