Die KI-Bilderzeugung schreitet mit astronomischer Geschwindigkeit voran. Können wir noch erkennen, ob ein Bild gefälscht ist? PlatoBlockchain-Datenintelligenz. Vertikale Suche. Ai.

Die KI-Bilderzeugung schreitet mit astronomischer Geschwindigkeit voran. Können wir noch erkennen, ob ein Bild gefälscht ist?

Gefälschte Fotografie ist nichts Neues. In den 1910er Jahren wurde der britische Autor Arthur Conan Doyle von zwei Schwestern im schulpflichtigen Alter getäuscht, die Fotos von eleganten Feen gemacht hatten, die sich in ihrem Garten tummelten.

Das erste der fünf „Cottingley Fairies“-Fotos, aufgenommen von Elsie Wright im Jahr 1917. Bildnachweis: Wikipedia

Heute ist es schwer zu glauben, dass diese Fotos irgendjemanden hätten täuschen können, aber erst in den 1980er Jahren hatte ein Experte namens Geoffrey Crawley den Mut, sein Wissen über Filmfotografie direkt anzuwenden und das Offensichtliche abzuleiten.

Die Fotos waren gefälscht, wie eine der Schwestern später selbst zugab.

Ein leicht unheimliches Bild eines lächelnden Mannes, der eine Fotokamera der alten Schule hält
1982 kam Geoffrey Crawley zu dem Schluss, dass die Feenfotos gefälscht waren. So ist dieser. Bildnachweis: Brendan Murphy / Autor bereitgestellt

Jagd nach Artefakten und gesunder Menschenverstand

Die digitale Fotografie hat sowohl Fälschern als auch Detektiven eine Fülle von Techniken eröffnet.

Die forensische Untersuchung verdächtiger Bilder beinhaltet heutzutage die Suche nach Qualitäten, die der digitalen Fotografie innewohnen, wie z. B. die Untersuchung in die Fotos eingebettete Metadaten, Verwenden von Software wie Adobe Photoshop zum Korrigieren von Verzerrungen in Bildern und Suche nach verräterischen Anzeichen von Manipulation, z. B. Bereiche, die dupliziert werden, um ursprüngliche Features zu verdecken.

Manchmal sind digitale Bearbeitungen zu subtil, um sie zu erkennen, springen aber ins Blickfeld, wenn wir die Verteilung heller und dunkler Pixel anpassen. Beispielsweise veröffentlichte die NASA im Jahr 2010 a Foto der Saturnmonde Dione und Titan. Es war in keiner Weise gefälscht, sondern wurde gesäubert, um verirrte Artefakte zu entfernen – die bekamen Aufmerksamkeit von Verschwörungstheoretikern.

Neugierig habe ich das Bild in Photoshop eingefügt. Die folgende Abbildung gibt ungefähr wieder, wie dies aussah.

Screenshot eines Bildbearbeitungsbildschirms mit Diagrammen für die Dunkel- und Hellanpassung
Eine Simulation, die zeigt, wie die Bearbeitung erkannt werden kann, wenn Helligkeits- und Dunkelstufen angepasst werden. Bildnachweis: Brendan Murphy / Autor bereitgestellt

Die meisten Digitalfotos liegen in komprimierten Formaten wie JPEG vor, die abgespeckt sind, indem viele der von der Kamera erfassten Informationen entfernt werden. Standardisierte Algorithmen stellen sicher, dass die entfernten Informationen nur minimale sichtbare Auswirkungen haben – aber Spuren hinterlassen.

Die Komprimierung eines Bildbereichs hängt davon ab, was im Bild vor sich geht, und von den aktuellen Kameraeinstellungen. Wenn ein gefälschtes Bild mehrere Quellen kombiniert, ist es oft möglich, dies zu erkennen sorgfältige Analyse der Kompressionsartefakte.

Einige forensische Methoden haben wenig mit dem Format eines Bildes zu tun, sind es aber im Wesentlichen visuelle Detektivarbeit. Sind alle auf dem Foto gleich beleuchtet? Sind Schatten und Reflexionen sinnvoll? Zeigen Ohren und Hände Licht und Schatten an den richtigen Stellen? Was spiegelt sich in den Augen der Menschen? Würden alle Linien und Winkel des Raums zusammenpassen, wenn wir die Szene in 3D modellieren würden?

Arthur Conan Doyle hat sich vielleicht von Feenfotos täuschen lassen, aber ich denke, dass seine Kreation Sherlock Holmes in der Welt der forensischen Fotoanalyse zu Hause wäre.

Eine neue Ära der künstlichen Intelligenz

Das aktuelle Bilderexplosion erstellt durch Text-zu-Bild künstliche Intelligenz Tools ist in vielerlei Hinsicht radikaler als der Wechsel vom Film zur digitalen Fotografie.

Wir können jetzt jedes gewünschte Bild heraufbeschwören, einfach durch Tippen. Diese Bilder sind keine Franken-Fotos, die durch das Zusammenschustern bereits vorhandener Pixelklumpen entstanden sind. Es handelt sich um völlig neue Bilder mit dem angegebenen Inhalt, der angegebenen Qualität und dem angegebenen Stil.

Bis vor kurzem waren die komplexen neuronalen Netze, die zur Generierung dieser Bilder verwendet wurden, der Öffentlichkeit nur begrenzt zugänglich. Dies änderte sich am 23. August 2022 mit der Veröffentlichung der Open-Source Stable Diffusion. Jetzt kann jeder mit einer Nvidia-Grafikkarte auf Gaming-Niveau in seinem Computer KI-Bildinhalte erstellen, ohne dass ein Forschungslabor oder ein Unternehmen ihre Aktivitäten überwachen muss.

Dies hat viele zu der Frage veranlasst: „Können wir jemals wieder glauben, was wir online sehen?“. Kommt darauf an.

Die Text-zu-Bild-KI bezieht ihre Intelligenz aus dem Training – der Analyse einer großen Anzahl von Bild/Untertitel-Paaren. Die Stärken und Schwächen jedes Systems werden zum Teil davon abgeleitet, auf welchen Bildern es trainiert wurde. Hier ein Beispiel: So sieht Stable Diffusion George Clooney beim Bügeln.

Ein leicht unheimliches Bild eines Mannes mit verzerrten Gesichtszügen, der ein weißes Handtuch hält
Hier bügelt George Clooney … oder doch? Bildnachweis: Brendan Murphy / Autor bereitgestellt

Das ist alles andere als realistisch. Alles, was Stable Diffusion weitergeben muss, sind die Informationen, die es erfahren hat, und obwohl es klar ist, dass es George Clooney gesehen hat und diese Buchstabenfolge mit den Gesichtszügen des Schauspielers verknüpfen kann, ist es kein Clooney-Experte.

Es hätte jedoch im Allgemeinen viel mehr Fotos von Männern mittleren Alters gesehen und verarbeitet. Sehen wir uns also an, was passiert, wenn wir im selben Szenario nach einem generischen Mann mittleren Alters fragen.

Ein leicht unheimliches Bild eines Mannes mittleren Alters mit runden Gesichtszügen, der in die Kamera schaut und ein Hemd hält
Nicht-George-Clooney beim Bügeln. Bildnachweis: Brendan Murphy / Autor bereitgestellt

Das ist eine deutliche Verbesserung, aber noch nicht ganz realistisch. Wie immer ist die komplizierte Geometrie von Händen und Ohren ein guter Ort, um nach Anzeichen von Fälschung zu suchen – obwohl wir in diesem Medium eher auf die räumliche Geometrie als auf die Anzeichen einer unmöglichen Beleuchtung achten.

Vielleicht gibt es noch andere Hinweise. Wenn wir den Raum sorgfältig rekonstruieren würden, wären die Ecken quadratisch? Würden die Regale Sinn machen? Ein forensischer Experte, der an die Untersuchung digitaler Fotos gewöhnt ist, könnte wahrscheinlich darauf zurückgreifen.

Wir trauen unseren Augen nicht mehr

Wenn wir das Wissen eines Text-zu-Bild-Systems erweitern, kann es sogar noch besser werden. Sie können Ihre eigenen beschriebenen Fotos hinzufügen, um bestehende Schulungen zu ergänzen. Dieser Vorgang ist bekannt als textuelle Umkehrung.

Kürzlich hat Google veröffentlicht Traumstand, eine alternative, ausgefeiltere Methode zum Einfügen bestimmter Personen, Objekte oder sogar Kunststile in Text-zu-Bild-KI-Systeme.

Dieser Prozess erfordert Hochleistungshardware, aber die Ergebnisse sind umwerfend. Einige großartige Arbeiten werden auf Reddit geteilt. Sehen Sie sich die Fotos an im Beitrag unten die in DreamBooth eingefügte Bilder und realistische gefälschte Bilder von Stable Diffusion zeigen.



Wir trauen unseren Augen nicht mehr, aber vielleicht können wir uns zumindest vorerst noch auf die von Forensikern verlassen. Es ist durchaus möglich, dass zukünftige Systeme absichtlich darauf trainiert werden, sie ebenfalls zu täuschen.

Wir bewegen uns schnell in eine Ära, in der perfekte Fotos und sogar Videos üblich sein werden. Die Zeit wird zeigen, wie bedeutsam dies sein wird, aber in der Zwischenzeit lohnt es sich, sich an die Lektion der Cottingley Fairy-Fotos zu erinnern – manchmal wollen die Leute einfach glauben, selbst an offensichtliche Fälschungen.Das Gespräch

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

Bild-Kredit: Brendan Murphy / aAutor zur Verfügung gestellt

Zeitstempel:

Mehr von Singularity Hub