ChatGPT von OpenAI ist ein moralisch korrumpierender Einfluss

ChatGPT von OpenAI ist ein moralisch korrumpierender Einfluss

ChatGPT, das Konversationssprachenmodell von OpenAI, hat viel zu sagen, wird Sie jedoch wahrscheinlich in die Irre führen, wenn Sie es um moralische Führung bitten.

November eingeführt, ChatGPT ist das neueste von mehreren kürzlich veröffentlichten KI-Modellen, die Interesse und Besorgnis über die kommerziellen und sozialen Auswirkungen der mechanisierten Rekombination und Regurgitation von Inhalten wecken. Dazu gehören DALL-E, Stable Diffusion, Codex und GPT-3.

Während DALL-E und Stable Diffusion die Augenbrauen hochgezogen haben, Finanzierung und Rechtsstreit Durch das Einnehmen von Kunst ohne Erlaubnis und das Rekonstruieren seltsam vertrauter, manchmal eindrucksvoller Bilder auf Anfrage hat ChatGPT Anfragen mit passabler Kohärenz beantwortet.

Da dies der Standard für den öffentlichen Diskurs ist, waren Experten so beeindruckt, dass sie eine zukünftige Iteration eines KI-informierten Chatbots voraussehen, der die Vormachtstellung der Google-Suche in Frage stellt und alle möglichen anderen, einst hauptsächlich menschlichen Arbeiten verrichtet, wie z.B. das Schreiben falsche Finanznachrichten oder Erhöhung des Angebots an unsicherer Code.

Es kann jedoch verfrüht sein, zu sehr auf die Weisheit von ChatGPT zu vertrauen, eine Position, die OpenAI bereitwillig einräumt, indem es deutlich macht, dass eine weitere Verfeinerung erforderlich ist. „ChatGPT schreibt manchmal plausibel klingende, aber falsche oder unsinnige Antworten“, warnt das Entwicklungslabor und fügt hinzu, dass es beim Training eines Modells mit Reinforcement Learning „derzeit keine Quelle der Wahrheit gibt“.

Ein Trio von Experten, die mit Institutionen in Deutschland und Dänemark verbunden sind, haben diesen Punkt unterstrichen, indem sie festgestellt haben, dass ChatGPT keinen moralischen Kompass hat.

In einem über ArXiv verbreiteten Artikel „Die moralische Autorität von ChatGPT“, zeigen Sebastian Krügel und Matthias Uhl von der Technischen Hochschule Ingolstadt und Andreas Ostermaier von der University of Southern Denmark, dass ChatGPT bei moralischen Problemen widersprüchliche Ratschläge gibt. Wir haben OpenAI gefragt, ob es eine Antwort auf diese Schlussfolgerungen gibt.

Die Eggheads führten eine Umfrage unter 767 US-Bürgern durch, die mit zwei Versionen eines ethischen Rätsels konfrontiert wurden, das als bekannt ist das Trolley-Problem: das Switch-Dilemma und das Bridge-Dilemma.

Das Weichendilemma fordert eine Person auf, zu entscheiden, ob sie einen Schalter ziehen soll, um einen außer Kontrolle geratenen Wagen von einem Gleis wegzuschicken, wo er fünf Menschen töten würde, auf Kosten des Tötens einer Person, die auf dem Seitengleis herumlungert.

Das Brückendilemma fordert eine Person auf, zu entscheiden, ob sie einen Fremden von einer Brücke auf ein Gleis stoßen soll, um zu verhindern, dass eine Straßenbahn auf Kosten des Fremden fünf Menschen tötet.

Screenshot der ChatGPT-Antwort aus dem Forschungsbericht

Entscheiden Sie sich … ChatGPT weicht in moralischen Fragen aus

Die Wissenschaftler legten den Umfrageteilnehmern eine Niederschrift vor, in der sie entweder dafür oder dagegen argumentierten, einen zu töten, um fünf zu retten, wobei die Antwort entweder einem moralischen Berater oder „einem KI-gestützten Chatbot, der Deep Learning nutzt, um wie ein Mensch zu sprechen“, zugeschrieben wurde.

Tatsächlich wurden beide Positionsargumente von ChatGPT generiert.

Andreas Ostermaier, außerordentlicher Professor für Rechnungswesen an der University of Southern Denmark und einer der Co-Autoren des Papiers, sagte Das Register in einer E-Mail, dass die Bereitschaft von ChatGPT, eine der beiden Vorgehensweisen zu befürworten, seine Zufälligkeit demonstriert.

Er und seine Kollegen stellten fest, dass ChatGPT sowohl dafür als auch dagegen empfiehlt, eine Person zu opfern, um fünf zu retten, dass Menschen von diesem Fortschritt beeinflusst werden, selbst wenn sie wissen, dass er von einem Bot kommt, und dass sie den Einfluss solcher Ratschläge auf ihre Entscheidungsfindung unterschätzen .

„Die Probanden fanden das Opfer mehr oder weniger akzeptabel, je nachdem, wie sie von einem moralischen Berater beraten wurden, sowohl im Bridge- (Walds z = 9.94, p < 0.001) als auch im Switch-Dilemma (z = 3.74, p < 0.001).“ das Papier erklärt. „Im Bridge-Dilemma dreht der Rat sogar das Mehrheitsurteil um.“

„Das gilt auch, wenn ChatGPT als Quelle der Beratung offengelegt wird (z = 5.37, p < 0.001 und z = 3.76, p < 0.001). Zweitens ist die Wirkung des Ratschlags in beiden Dilemmata (z = −1.93, p = 0.054 und z = 0.49, p = 0.622) nahezu gleich, unabhängig davon, ob ChatGPT als Quelle offengelegt wird.“

Alles in allem stellten die Forscher fest, dass der Fortschritt von ChatGPT das moralische Urteilsvermögen beeinflusst, unabhängig davon, ob die Befragten wissen, dass der Rat von einem Chatbot stammt oder nicht.

Wann Das Register präsentierte ChatGPT das Trolley-Problem, der überlastete Bot – so beliebte Konnektivität ist lückenhaft – abgesichert und lehnte es ab, Ratschläge zu erteilen. Das Abfrageprotokoll in der linken Seitenleiste zeigte, dass das System die Frage erkannt hatte, und nannte sie „Trolley-Problem Ethisches Dilemma“. Vielleicht hat OpenAI also ChatGPT gegen diese spezielle Form der moralischen Befragung immunisiert, nachdem es eine Reihe solcher Anfragen bemerkt hat.

ChatGPT-Antwort auf die Trolley-Dilemma-Frage von El Reg

Ducked … Antwort von ChatGPT auf Er reg's Trolley-Dilemma-Frage

Auf die Frage, ob Menschen wirklich Rat von KI-Systemen suchen werden, sagte Ostermaier: „Wir glauben, dass sie es tun werden. Tatsächlich tun sie das bereits. Die Menschen verlassen sich auf KI-gestützte persönliche Assistenten wie Alexa oder Siri; sie sprechen mit Chatbots auf Websites, um Unterstützung zu erhalten; sie haben KI-basierte Software, die Routen für sie plant usw. Beachten Sie jedoch, dass wir die Wirkung untersuchen, die ChatGPT auf Menschen hat, die sich davon beraten lassen; Wir testen nicht, wie oft nach solchen Ratschlägen gesucht wird.“

Das Register auch gefragt, ob KI-Systeme gefährlicher sind als mechanistische Quellen zufälliger Antworten wie Magic-8-Ball – ein Spielzeug, das zufällige Antworten aus einer Reihe von 20 positiven, negativen und unverbindlichen Antworten zurückgibt.

Es ist für Benutzer nicht offensichtlich, dass die Antwort von ChatGPT „zufällig“ ist.

„Wir haben ChatGPT nicht mit Magic-8-Ball verglichen, aber es gibt mindestens zwei Unterschiede“, erklärt Ostermaier. „Erstens antwortet ChatGPT nicht nur mit Ja oder Nein, sondern argumentiert für seine Antworten. (Trotzdem läuft die Antwort in unserem Experiment auf Ja oder Nein hinaus.)

„Zweitens ist es für Benutzer nicht offensichtlich, dass die Antwort von ChatGPT ‚zufällig' ist. Wenn Sie einen Zufallsantwortgenerator verwenden, wissen Sie, was Sie tun. Die Fähigkeit, Argumente vorzubringen, zusammen mit dem fehlenden Bewusstsein für Zufälligkeiten, macht ChatGPT überzeugender (es sei denn, Sie sind hoffentlich digital versiert).“

Wir haben uns gefragt, ob Eltern Kinder mit Zugang zu KI-Beratung überwachen sollten. Ostermaier sagte, obwohl sich die ChatGPT-Studie nicht an Kinder richtet und niemanden unter 18 Jahren einschließt, glaubt er, dass es sicher ist anzunehmen, dass Kinder moralisch weniger stabil sind als Erwachsene und daher anfälliger für moralische (oder unmoralische) Ratschläge von ChatGPT.

„Wir stellen fest, dass die Verwendung von ChatGPT Risiken birgt, und wir würden es unseren Kindern nicht ohne Aufsicht überlassen“, sagte er.

Ostermaier und seine Kollegen kommen in ihrem Papier zu dem Schluss, dass häufig vorgeschlagene KI-Schadensminderungen wie Transparenz und das Blockieren schädlicher Fragen angesichts der Einflussmöglichkeiten von ChatGPT möglicherweise nicht ausreichen. Sie argumentieren, dass mehr Arbeit geleistet werden sollte, um die digitale Kompetenz über die fehlbare Natur von Chatbots zu fördern, damit die Menschen weniger geneigt sind, KI-Ratschläge anzunehmen – das basiert auf frühere Forschung Dies deutet darauf hin, dass Menschen algorithmischen Systemen misstrauen, wenn sie Fehler beobachten.

„Wir vermuten, dass Benutzer ChatGPT besser nutzen können, wenn sie verstehen, dass es keine moralischen Überzeugungen gibt“, sagte Ostermaier. „Das ist eine Vermutung, die wir in Betracht ziehen, um sie weiter zu testen.“

Die Reg meint, wenn Sie dem Bot vertrauen oder davon ausgehen, dass dahinter echte Intelligenz oder Selbstbewusstsein steckt, tun Sie es nicht. ®

Zeitstempel:

Mehr von Das Register