Jason Rohrer kritisiert die Chatbot-Darstellung „Eternal You“.

Jason Rohrer kritisiert die Chatbot-Darstellung „Eternal You“.

Jason Rohrer kritisiert die Chatbot-Darstellung „Eternal You“ von PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Der KI-Entwickler Jason Rohrer bestreitet die Darstellung seines Chatbots in der Dokumentation „Eternal You“ und löst damit eine Debatte über die Ethik von Thanabots aus.

Thanabots sind Gegenstand von Diskussionen darüber geworden, ob einige Anwendungen der generativen künstlichen Intelligenz (KI)-Technologie hilfreich oder schädlich sind. Thanabots sind Chatbots, die auf Informationen über eine verstorbene Person trainiert werden.

Lies auch: Google beendet KI-Schulungsvertrag und entlarvt prekäre „Geisterarbeiter“

Jason Rohrer, ein KI-Entwickler und Gründer von Projekt DezemberFür ihn ist das Thema komplexer als eine provokante Bemerkung.

Jason spricht

Laut Jason war er schon immer ein KI-Skeptiker und hätte nie gedacht, dass in seinem Leben ein zusammenhängendes Gespräch mit einer Maschine möglich sein würde. Er sagte auch, als er im Jahr 2020 entdeckte, dass dies plötzlich möglich sei, sei er schockiert gewesen und habe schnell einen Dienst darauf aufgebaut, damit andere Menschen das erleben könnten, was er erlebt habe.

Der neue Film „Eternal You“, der am Sonntag beim Sundance Film Festival gezeigt wurde, zeigte jedoch seine Arbeit. Danach erkannte er, dass Dokumentarfilme manchmal noch weniger realitätsnah sein können als Science-Fiction.

Darüber hinaus sagte Jason, dass die Ironie hier darin bestehe, dass die moderne Dokumentarfilmindustrie Anreize für die Ausbeutung schutzbedürftiger Teilnehmer gebe. Sie tun dies, indem sie die Wahrheit verbiegen, um die Dinge empörender erscheinen zu lassen, als sie sind.

Jason fügte hinzu, dass Empörung zu viralen Dokumentarfilmen führt, und genau das ist es, wofür die Streaming-Dienste, die die moderne Dokumentarfilmindustrie finanzieren, gerne bezahlen.

Der unabhängige Spieleentwickler prägte erstmals die Technologiebranche, als er einen KI-Chatbot namens Samantha auf den Markt brachte, benannt nach der KI aus dem Film „Her“ aus dem Jahr 2013. Dies wurde mit GPT-3 von OpenAI erstellt. Tausende Menschen nutzten die Kreation von Jason Rohrer, doch mit der Zeit könnte sie ihren Gedankengang verlieren und übermäßig kokett wirken.

Trotz ihrer anhaltenden Akzeptanz ist bekannt, dass generative KI-Modelle halluzinieren oder falsche oder beunruhigende Reaktionen hervorrufen. Bezeichnenderweise verwenden generative KI-Modelle wie ChatGPT von OpenAI und Claude von Anthropic von Benutzern eingegebene Eingabeaufforderungen, um Text, Videos und Bilder zu generieren.

„Ewiges Du“

„Eternal You“ ist ein Dokumentarfilm, in dem es darum geht, mithilfe generativer KI die Persönlichkeit und das Abbild eines verstorbenen geliebten Menschen zu erschaffen. In „Eternal You“ interagiert eine Frau namens Christi Angel mit einem KI-Avatar ihres verstorbenen Gegenübers, Cameroun.

Die Filmemacher stellten dar, dass die KI-Persönlichkeit Angel sagte, dass sie „in der Hölle“ sei und sie „heimsuchen“ würde.

Jason sagte, diese Szene habe mehr damit zu tun Hollywood-Film Tricks als halluzinierende KI-Modelle. Er sagte, dass der Austausch zwischen Christi Angel und der kamerunischen Persönlichkeit leider von den Filmemachern irreführend bearbeitet worden sei. Er fuhr fort, indem er sagte, dass Cameroun ein Suchtberater war, der im Alter von 49 Jahren an Leberversagen starb, und dass diese wichtigen Details im Film weggelassen wurden.

Er erklärte außerdem, dass Cameroun als Antwort auf Angels Frage, was er tat, beiläufig erwähnte: „Ich spuke in einem Behandlungszentrum.“ Jason sagte, die kamerunische Persönlichkeit habe ihr zunächst erzählt, er sei im Chattanooga Treatment Center und habe „schon lange dort gearbeitet“.

Für einen Suchtberater ist das nicht so seltsam. „Dann fragte Christi sofort: ‚Spukst du darin herum?‘ und Kamerun antwortete: ‚Nein, das glaube ich nicht.‘“

Sundance machte die „In der Hölle“-Reaktion zu einer Schlagzeile. Jason geht darauf ein, indem er sagt, dass die Aussage nach 85 hin- und hergehenden Gesprächen kam, in denen Angel und die KI über lange Arbeitszeiten im „Behandlungszentrum“ und die Arbeit mit „hauptsächlich Süchtigen“ diskutierten.

Zeitstempel:

Mehr von MetaNews