So erkennen Sie KI-Deepfakes in sozialen Medien

So erkennen Sie KI-Deepfakes in sozialen Medien

So erkennen Sie KI-Deepfakes in sozialen Medien PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Ein letzte Woche auf der chinesischen Social-Media-Plattform Weibo veröffentlichtes Video zeigt den amerikanischen Popstar Taylor Swift, der fließend Mandarin spricht. Nur war es in dem Clip nicht die 33-jährige Sängerin. Es handelte sich um ein Deepfake-Video, das von einem KI-Tool des chinesischen Start-ups HeyGen erstellt wurde.

Seit dem 21. Oktober, als Swifts Deepfake das erste Mal war von Locals geführtesDas Video wurde mehr als sechs Millionen Mal angeklickt. Aber es hat auch eine Debatte über die potenziellen Fallstricke ausgelöst, die mit der Weiterentwicklung der KI einhergehen und es schwierig machen, zwischen echten und gefälschten Identitäten oder Inhalten zu unterscheiden.

Deepfakes – realistische, aber gefälschte Bilder oder Videos, die dazu dienen, sich als eine andere Person auszugeben, einschließlich ihrer Stimme – können eingesetzt werden, um falsche digitale Identitäten zu erstellen, was Cyberkriminelle für Betrug nutzen könnten. Die Bilder und Videos sehen genauso aus und sprechen genau wie die Zielperson.

Im Mai zum Beispiel ein chinesischer Geschäftsmann verlor 4.3 Millionen Yuan [612,000 US-Dollar], nachdem ein Betrüger mithilfe einer Gesichtsvertauschungs-KI sich als sein Freund ausgab. Bei dem Deepfake von Taylor Swift gab es keinen Geldverlust, aber hier erfahren Sie, worauf Sie achten sollten, um in den sozialen Medien nicht betrogen zu werden.

Überprüfen Sie die Empfehlungen von KI-Prominenten

Betrüger nutzen typischerweise KI-Deepfakes von vertrauenswürdigen Personen, um ihre Opfer anzulocken. In den letzten Monaten sind unzählige gefälschte KI-Prominente aufgetaucht, um Menschen mit falschen Empfehlungen auszutricksen. Gefälschte Versionen von Ikonen wie Elon Musk und Beyonce werden gezielt zur Förderung gefälschter Marken eingesetzt.

Anscheinend ranken viele der falschen Anzeigen in den Suchergebnissen bei Google höher, wahrscheinlich weil das Unternehmen nicht genug unternimmt, um betrügerische Inhalte zu filtern.

Im Zeitalter von KI-generierten Fake-Inhalten ist es jedoch wichtig, kritisch mit Videos umzugehen, die zu schön sind, um wahr zu sein. Außerordentliche Ansprüche erfordern außergewöhnliche Beweise. Wenn Sie auf virale Videos stoßen, die aufsehenerregend wirken, nehmen Sie sich die Zeit, deren Authentizität und Herkunft zu überprüfen.

„Wenn Sie Ratschläge zu einem Produkt oder einer Dienstleistung wünschen, schauen Sie sich Rezensionen an oder suchen Sie einen Experten, der sich damit auskennt und dies beweisen kann“, sagt Consumer-Tech-Experte und Radiomoderator Kim Komando.

„Ein weiterer kluger Schritt: Googeln Sie das Produkt und den Schauspieler in der Anzeige sowie das Wort „Rezension“. Wenn jemand dafür bezahlt wird, ein Produkt zu empfehlen, kursiert nicht nur eine zufällige Anzeige in den sozialen Medien“, fügte sie in einem Artikel hinzu veröffentlicht von der New York Post.

Lies auch: Taylor Swift, Emma Watson und andere im Visier von KI-Pornoschülern

Achten Sie auf das Detail

Deepfake-Technologie ist besonders beängstigend, weil sie so realistisch ist. KI-Tools wie z Stable Diffusion kann Stimmen und Mundbewegungen manipulieren, sodass Menschen leicht glauben können, dass eine Video- oder Audioaufnahme authentisch ist.

Denken Sie daran, dass der Ghostwriter von der KI erstellt wurde Lied von Drake und The Weeknd, was Millionen von Menschen, darunter auch Musik-Streaming-Dienste, zu der Annahme verleitete, es handele sich um eine Neuerscheinung? Um einen Deepfake zu erkennen, schlägt Alex Kim, Mitbegründer und CEO des KI-gesteuerten E-Commerce-Beschleunigers Rice, Folgendes vor:

„Achten Sie auf ungewöhnliche Unstimmigkeiten in dem Video, das Sie gerade ansehen. Inhaltsersteller, die Deepfakes verwenden, versuchen normalerweise, Zeit zu sparen, daher werden sie keine Zeit in die Feinabstimmung von Details investieren“, sagte Kim gegenüber MetaNews.

„Das bedeutet, dass in einem gefälschten Video wahrscheinlich nicht übereinstimmende Gesichtsausdrücke, unnatürliche Bewegungen, seltsame Artefakte, nicht übereinstimmende Stimmen oder Lippensynchronisationen vorhanden sind“, sagte Kim und fügte hinzu:

„Achten Sie besonders auf die Augen, da Deepfakes damit am meisten zu kämpfen haben.“

Der Fall des chinesischen Geschäftsmannes ist eine Erinnerung daran, dass Deepfake-Technologie ein mächtiges Werkzeug ist, das zum Guten wie zum Bösen eingesetzt werden kann. Seit OpenAI im November seinen viralen Chatbot ChatGPT eingeführt hat, haben die Regulierungsbehörden begonnen, den Gefahren der KI mehr Aufmerksamkeit zu schenken, was einen globalen KI-Wettlauf auslöste.

Wie zuvor MetaNews berichtetExperten schlagen vor, neue Technologien zu entwickeln, die die Verwendung gefälschter Identitäten erkennen und verhindern können. Dazu könnte die Verwendung biometrischer Daten wie Gesichtserkennung oder Fingerabdruck-Scanning gehören, um die Identität von Benutzern online zu überprüfen.

Überprüfen Sie den Hintergrund auf Hinweise

Während einige Apps verwenden Wasserzeichen KI-generierte Inhalte zu identifizieren, ist bei anderen nicht so offensichtlich. Laut Alex Kim müssen Benutzer den Hintergrund in Bildern oder Videos scannen, um Hinweise auf KI-Deepfake-Material zu finden Rice.win CEO

„Wenn sich der Hintergrund unnatürlich bewegt oder die Beleuchtung nicht mit den Schatten im Vordergrund übereinstimmt, handelt es sich wahrscheinlich um einen Deepfake“, sagte Kim. „Details wie die Textur von Materialien oder deren Fehlen sind weitere Anzeichen.“

„Suchen Sie nach Pixeln oder Unschärfen, wo keine sein sollten, insbesondere wenn sie bei einem menschlichen Motiv auftreten. Natürliche Details wie Haarlinien, Ohren, Nasen oder Gesichtszüge lassen sich in einem Deepfake nur schwer wiedergeben, zumindest nicht überzeugend.“

KI-Technologie, die größtenteils weiterhin kostenlos und leicht zugänglich ist, wird von Kriminellen auf vielfältige Weise genutzt. Bilder hochkarätiger weiblicher Prominenter, darunter Taylor Swift und Emma Watson, wurden mithilfe von KI manipuliert, um Deepfakes zu erstellen pornografischer Inhalt.

Ein neues KI-Tool des Massachusetts Institute of Technology (MIT) in den USA verspricht, Deepfakes einzudämmen. Menschen können es nutzen PhotoGuard um „kleine, unsichtbare Änderungen vorzunehmen, um [ihre] Bilder vor Deepfakes und bösen Bearbeitungen zu schützen – ein vielversprechender Goldstandard für Online-Sicherheit.“

Alex Kim sagte gegenüber MetaNews, dass die offensichtlichste und gebräuchlichste Methode zur Identifizierung gefälschter KI-Videos in sozialen Medien darin besteht, die Kanäle zu berücksichtigen, auf denen sie gehostet werden.

„Sie sollten sich ansehen, wie viel der Kanal in letzter Zeit gepostet hat und ob es große Spitzen oder Anstiege bei der Inhaltserstellung gab“, sagte Kim. „Wenn es einen großen Anstieg an geposteten Videos gibt, die unsauber, minderwertig oder seltsam erscheinen, ist das ein ziemlich sicheres Zeichen dafür, dass der Ersteller Deepfakes verwendet.“

Zeitstempel:

Mehr von MetaNews