China wird im Januar Gesetze zur Bekämpfung von Deepfakes einführen PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

China führt im Januar Gesetze zur Bekämpfung von Deepfakes ein

Wenn Sie diese Woche in den sozialen Medien waren, sind Sie wahrscheinlich auf Fotos von KI-generierten Bildern Ihrer Freunde als Feenwesen, Anime-Charaktere, Avatare und magische Wesen gestoßen.

Dies ist teilweise auf Lensa zurückzuführen, eine KI, die digitale Porträts basierend auf den von Benutzern hochgeladenen Fotos synthetisiert. Die Porträts der App übernahmen praktisch das Internet, wobei Lensa zur am häufigsten heruntergeladenen App in Apples App Store wurde.

Lensa hat, wie alle KI-Anwendungen, die Bilder digital rendern, sowohl Bewunderung als auch Kontroversen wegen seiner scheinbar offensichtlichen Sexualisierung weiblicher Bilder erregt. Andere Benutzer bemerkten, dass die App ihre Haut blasser oder ihren Körper dünner machte.

Lies auch: KI-Technologie, die lebenszerstörende Deep Fake-Bilder erstellt

So erhalten Sie Ihren eigenen „magischen Avatar“

Die Bilder, die die Runde machen, sind eine stolze Kreation von Lensas magischer Avatar-Funktion. Um ein Gefühl dafür zu bekommen, muss man die Lensa-App auf ein Telefon herunterladen. Ein Jahresabonnement kostet etwa 35.99 $, aber seine Dienste sind auch verfügbar, wenn auch mit Einschränkungen, kostenlos für eine einwöchige Testversion, wenn man es zuerst ausprobieren möchte.

Das Generieren der beliebten magischen Avatare erfordert jedoch eine zusätzliche Gebühr, da laut App „enorme Rechenleistung“ zu erreichen ist.

Bei einer kostenlosen Testversion kann man 50 Avatare für 3.99 $ und 200 Avatare für 7.99 $ bekommen. Um die besten Ergebnisse zu erzielen, fordert die App die Benutzer auf, mindestens 20 Nahaufnahmen hochzuladen.

Idealerweise sollten diese Bilder Nahaufnahmen des eigenen Gesichts mit einer Reihe unterschiedlicher Hintergründe, Gesichtsausdrücke und Winkel sein. Die Anwendung besteht darauf, dass Benutzer 13 Jahre und älter sein sollten. Lensa ist keine völlig neue Anwendung.

Die Anwendung, ein Produkt von Prisma, wurde erstmals 2016 dank einer Funktion populär, die es Benutzern ermöglichte, ihre Selfies in Fotos im Stil berühmter Künstler umzuwandeln.

Wie wirkt Lensa?

Nach Angaben des Unternehmens nutzt es die so genannte „TrueDepth API-Technologie“, bei der ein Benutzer Fotos oder „Gesichtsdaten“ bereitstellt. Anschließend wird die KI auf ihre Algorithmen trainiert, um eine bessere Leistung zu erzielen und Ihnen bessere Ergebnisse zu zeigen. Beim Training verarbeitet die KI Daten, validiert und testet die Modelle.

Um die App zu verwenden, kann man 20 Selfies mit einer Vielzahl von Ausdrücken und Blickwinkeln kuratieren und die 100-Avatar-Option wählen.

Es dauert ungefähr 20 Minuten, um die Arbeit zu erledigen. Sobald dies erledigt ist, gibt die KI Avatare zurück, die in 10 Kategorien fallen, wie z.

„Im Allgemeinen hatte ich das Gefühl, dass die App gute Arbeit geleistet hat, indem sie künstlerische Bilder basierend auf meinen Selfies erstellt hat. Auf den meisten Porträts konnte ich mich selbst nicht richtig erkennen, aber ich konnte sehen, woher sie kamen.“ Zoë Sottile von CNN schrieb.

„Es schien bestimmte Merkmale wie meine blasse Haut oder meine runde Nase mehr zu erkennen und zu wiederholen als andere. Einige von ihnen hatten einen realistischeren Stil und waren nah genug, dass ich denken könnte, dass es sich tatsächlich um Fotos von mir handelt, wenn ich sie aus der Ferne sehe. Andere waren deutlich stilisierter und künstlerischer, sodass sie sich für mich weniger spezifisch anfühlten.“

Sottile bemerkte, dass die KI sie auch leichter machte.

Was mich betrifft, so spürte ich auch, dass es mich automatisch heller machte, und das Bild, das ich in meiner Galerie von mir und einem Freund mit etwas dunklerer Hautfarbe ausprobierte, gab eine etwas viel hellere Version von uns wieder, eindeutig eine Übertreibung, und zeigte eine Neigung zum Aufhellen schwarze Hauttöne.

Frauen sexualisieren

Andere, die es benutzten, hatten mehr oder weniger ähnliche Bedenken.

Frauen sagen, die KI sei schnell dabei, ihre Bilder zu sexualisieren. Aber in einem früheren Artikel haben wir erklärt Möglich wurde dies durch die große Anzahl sexualisierter Bilder, die in Datensätzen gefunden wurden, die im KI-Training verwendet werden.

Mit anderen Worten bedeutet dies, dass die KI nur allzu vertraut damit ist, wie man diese Bilder generiert und leicht pornografisch wird. Mit ein wenig Trickserei kann es dazu veranlasst werden, unwissentlich auch Pornos aus diesen Bildern zu produzieren, wenn ein Benutzer dies wünscht.

In anderen Geschichten haben wir behandelt, wie KIs dazu verleitet werden können, Informationen darüber bereitzustellen, wie man eine Bombe zum Beispiel. Seltsamerweise erschien das Thema Sexualisierung nicht in Bildern von Männern, die in die Magic Avatar-Funktion hochgeladen wurden. Für MIT Technology Review, Melissa Heikkilä schrieb,

„Meine Avatare wurden karikaturistisch pornisiert, während meine männlichen Kollegen Astronauten, Entdecker und Erfinder sein mussten.“

Sottile hingegen bemerkte, dass die KI „in einem der verwirrendsten Bilder“ sie aussehen ließ, „als wäre eine Version meines Gesichts auf einem nackten Körper“.

„Auf mehreren Fotos sah es so aus, als wäre ich nackt, aber mit einer strategisch platzierten Decke, oder das Bild wurde einfach abgeschnitten, um etwas Explizites zu verbergen“, sagte sie.

„Und viele der Bilder, selbst wenn ich vollständig bekleidet war, zeigten einen schwülen Gesichtsausdruck, ein deutliches Dekolleté und knappe Kleidung, die nicht zu den Fotos passten, die ich eingereicht hatte“, fügt Zoe Sottil hinzu.

Andere äußerten Befürchtungen, dass sie durch KI-Technologie wie Lensa zu Pornostars gemacht würden.

Körperschande

Bei Frauen mit vollem Körper war die Erfahrung etwas anders und in einigen Fällen sogar noch schlimmer. Die KI machte sie dünner und sexy.

„Für Lmfao, wenn Sie Körperdysmorphie haben, verwenden Sie diese Lensa-App nicht für die KI-generierten Bilder. Das ist Ihre Warnung“, ein Benutzer schrieb.

Eine andere sagte, die App habe sie asiatisch aussehen lassen.

Ein anderer Benutzer beschwerte sich auf Twitter darüber, dass er 8 Dollar bezahlt hatte, um Körperdysmorphien zu bekommen, als er die KI benutzte.

Körperdysmorphie ist eine psychische Erkrankung, bei der eine Person viel Zeit damit verbringt, sich über Mängel in ihrem Aussehen Gedanken zu machen. Diese Fehler sind für andere oft nicht wahrnehmbar.

Eine andere beschwerte sich darüber, dass die KI automatisch erheblich an Gewicht auf ihren ansonsten vollfigurigen Bildern verlor.

„Eine Beschwerde, die ich über Lensa AI habe, ist, dass es Sie auf einigen Bildern dünn macht. Als dicke Person haben mich diese Bilder wirklich gestört. Passen Sie also auf, dass Sie nicht getriggert werden, wenn Sie ein dicker Kerl sind, der kein Interesse daran hat, dünn zu werden“, schrieb Mariah Successful (@Shlatz) am 5. Dezember 2022.

Psychische Zeitbombe

Und Psychologen stimmen ihren Aussagen zu, dass die KI vollschlanke Frauen triggern könnte.

Ein klinischer Psychologe, Dr. Toni Pikoos, ein in Australien ansässiger Psychiater, der sich auf die Behandlung von körperdysmorphen Störungen spezialisiert hat und forscht, glaubte, dass die Anwendung mehr schaden als nützen könnte und nichts anderes als ein „Fotofilterwerkzeug“ sei, um die eigene Wahrnehmung zu verändern.

„Wenn es eine größere Diskrepanz zwischen dem idealen und wahrgenommenen Aussehen gibt, kann dies zu Unzufriedenheit, Stress und dem Wunsch führen, das eigene Aussehen mit potenziell ungesunden oder unsicheren Mitteln wie ungesundem Essen oder unnötigen kosmetischen Eingriffen zu korrigieren oder zu verändern“, sagt Pikoos.

Sie drückte ihre Besorgnis darüber aus, dass die Bilder „komplizierte Details“ wie „Sommersprossen und Linien“ löschten, etwas, das die Sorge um die eigene Haut verstärken könnte. Dies könnte eine gefährdete Person auch psychisch auslösen, sagt sie.

„Zu sehen, wie ein äußeres Bild ihre Unsicherheit zu ihnen zurückspiegelt, verstärkt nur die Idee: ‚Sehen Sie, das ist falsch mit mir! Und ich bin nicht der einzige, der es sehen kann!'“, sagt Pikoos.

Aufgrund der Tatsache, dass die KI ihre eigenen Funktionen einführt, die nicht das Aussehen eines Benutzers im wirklichen Leben abbilden, könnte die App neue Ängste hervorrufen, sagt er.

Sie sagt, die „magischen Avatare“ der KI seien „besonders interessant, weil sie objektiver erscheinen – als ob ein externes, allwissendes Wesen dieses Bild von deinem Aussehen erzeugt hat“.

Sie glaubt, dass dies tatsächlich „nützlich“ für Menschen mit körperdysmorpher Störung sein und dabei helfen könnte, ein „Missverhältnis“ zwischen der „negativen Sicht einer Person auf sich selbst und dem, wie andere sie sehen“, aufzuklären.

Sie bemerkte jedoch, dass die KI nicht objektiv sei, da sie versuche, eine makellose und „verbesserte und perfektionierte Version“ des eigenen Gesichts darzustellen.

Zum Beispiel kann jemand, der an einer körperdysmorphen Störung oder BDD leidet, „einen kurzen Selbstvertrauensschub erfahren, wenn er sein Bild betrachtet und diese Version von sich selbst mit der Welt teilen möchte“, sagt sie, wird aber von der Realität hart getroffen, wenn er ausgeschaltet ist Bildschirm, ungefiltert, im Spiegel oder ein Foto, das sie von sich selbst machen.“

Sich selbst verteidigen

Andrey Usoltsev, CEO von Prisma Labs, sagt, sein Unternehmen sei derzeit mit Anfragen zu Lensa „überwältigt“ und habe einen Link zu einer FAQ-Seite angeboten, die Anfragen zu sexualisierten Bildern behandelt, jedoch nicht die Art von Benutzerreaktionen, die Pikoos beschreibt.

„Dies in der App widergespiegelt zu sehen, wäre sehr konfrontierend und eine Art ‚Bestätigung‘ für die Art und Weise, wie sie sich selbst sehen“, was dazu führen würde, dass sie sich „mehr in der Störung verwurzeln“.

Stable Diffusion

Lensa verwendet auch Stable Diffusion, das eine Deep-Learning-Synthese verwendet, die neue Bilder aus Textbeschreibungen erstellen kann und auf einem Windows- oder Linux-PC, auf einem Mac oder in der Cloud auf gemieteter Computerhardware ausgeführt werden kann.

Das neuronale Netzwerk von Stable Diffusion hat mit Hilfe intensiven Lernens die Zuordnung von Wörtern und die allgemeine statistische Zuordnung zwischen den Positionen von Pixeln in Bildern gemeistert.

Wir deckten in einem anderen Story wie die Technologie lebensgefährliche Folgen haben könnte, indem Bilder von Menschen so wiedergegeben und dargestellt werden, dass sie als Kriminelle erscheinen oder an weniger schmeichelhaften Praktiken wie Diebstahl beteiligt sind.

Zum Beispiel kann man der Open Source Stable Diffusion eine Aufforderung geben, wie „Tom Hanks in einem Klassenzimmer“, und es wird ihm/ihr ein neues Bild von Tom Hanks in einem Klassenzimmer geben. Im Fall von Tom Hank ist es ein Kinderspiel, denn Hunderte seiner Fotos befinden sich bereits im Datensatz, der zum Trainieren von Stable Diffusion verwendet wird.

Künstler bekommen auch ein Schnäppchen

An der Kunstfront sind einige Künstler unzufrieden.

Sie befürchten, dass die KI ihre Existenz gefährden könnte. Denn auch Künstler, auch digitale, können nicht so schnell wie KI für ein digitales Porträt produzieren.

Die Muttergesellschaft von Lensa, Prisma, hat versucht, die Bedenken zu zerstreuen, dass ihre Technologie die Arbeit für Digitalkünstler eliminiert.

„Während sowohl Menschen als auch KI auf halbwegs ähnliche Weise etwas über künstlerische Stile lernen, gibt es einige grundlegende Unterschiede: KI ist in der Lage, große Datensätze schnell zu analysieren und daraus zu lernen, aber sie hat nicht das gleiche Maß an Aufmerksamkeit und Wertschätzung für Kunst als ein menschliches Wesen," schrieb das Unternehmen auf Twitter am 6. Dezember.

Darin heißt es: „Die Ergebnisse können nicht als exakte Nachbildungen eines bestimmten Kunstwerks beschrieben werden.“

Selbstbild verändern

Kerry Bowman, Bioethiker an der University of Toronto, sagt, dass die KI neben anderen ethischen Problemen das Potenzial hat, das eigene Selbstbild negativ zu beeinflussen.

„In gewisser Weise kann es eine Menge Spaß machen, aber diese idealisierten Bilder werden von sozialen Erwartungen angetrieben, die sehr grausam und sehr eng sein können“, sagte Bowman am Montag.

Bowman sagte, dass diese KI-Programme Datensatzquellen wie das Internet nutzen, um nach verschiedenen Kunststilen zu suchen, um diese Porträts zu erstellen. Der Nachteil ist, dass Künstler, wenn KI dies tut, selten finanziell für die Nutzung ihrer Arbeit entlohnt oder gutgeschrieben werden.

„Was bei der aufkommenden KI passiert, ist, dass die Gesetze urheberrechtlich nicht wirklich mithalten konnten. Es ist sehr schwierig und sehr düster und die Ethik ist noch weiter hinter den Gesetzen zurück, weil ich argumentieren würde, dass dies grundsätzlich unfair ist“, sagte Bowman.

Bedenken hinsichtlich personenbezogener Daten

Bowman äußerte auch Bedenken darüber, wie personenbezogene Daten von Personen gespeichert werden.

„Wollen Sie Ihr Gesicht wirklich in einer großen Datenbank? Die Leute müssen darüber selbst entscheiden, aber es ist nicht gutartig, es ist nicht nichts dran, es macht nicht nur Spaß“, sagte er.

Laut Lensa werden Fotos nicht länger als 24 Stunden auf Servern und in Apps aufbewahrt. Mit Deep Learning und Machine Learning Algorithmen sammelt die KI und liefert dann zukünftig bessere Ergebnisse, auch auf Basis der gelöschten Daten. Laut Bowman wird dies zu Sicherheitsbedenken hinsichtlich der möglichen Verwendung der Gesichtserkennung führen, da diese Art von Daten von der Polizei illegal verwendet werden könnte.

Zeitstempel:

Mehr von MetaNews