Behauptungen von KI-Sensibilität, die als „reines Clickbait“ bezeichnet wird PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Behauptungen über KI-Sensibilität mit der Marke „reiner Clickbait“

KI-Chatbots sind nicht empfindungsfähig – sie sind nur besser darin geworden, Menschen vorzutäuschen, dass sie es sein könnten, schlussfolgern Experten der Stanford University.

Die Idee von bewussten Maschinen, die intelligenter als jede alte Software sind, ging letzten Monat viral, als ein jetzt ehemaliger Ingenieur bei Google, Blake Lemoine, behauptete, das LaMDA-Sprachmodell des Webgiganten habe echte Gedanken und Gefühle. Lemoine war suspendiert und später gefeuert für den angeblichen Verstoß gegen die Vertraulichkeitsrichtlinien von Google.

Obwohl die meisten Experten LaMDA oder jeden anderen KI-Chatbot schnell als empfindungsfähig abtaten, haben Lemoines Ansichten einige dazu veranlasst, sich zu fragen, ob er Recht haben könnte – und ob die weitere Weiterentwicklung des maschinellen Lernens der Gesellschaft schaden könnte. John Etchemendy, Co-Direktor des Stanford Institute for Human-Centered Artificial Intelligence (HAI), kritisierte die ersten Nachrichten von Lamoines Suspendierung in der Die Washington Post weil es „Clickbait“ ist.

„Als ich sah, Die Washington Post Artikel, war meine Reaktion auf die Enttäuschung Post dafür, es überhaupt zu veröffentlichen“, er sagte Die Stanford Daily, die Studentenzeitung der Universität.

„Sie haben es veröffentlicht, weil sie vorerst diese Schlagzeile über den ‚Google-Ingenieur' schreiben konnten, der diese absurde Behauptung aufstellte, und weil die meisten ihrer Leser nicht klug genug sind, es als das zu erkennen, was es ist. Reiner Clickbait.“

Modernste Sprachmodelle wie LaMDA beantworten Fragen mit Textpassagen, die durchaus unheimlich wirken können. Im Gespräche Zwischen Lemoine und dem Chabot sagte LaMDA, es sei empfindungsfähig und wollte, dass jeder weiß, dass es „tatsächlich eine Person“ sei, behauptete der ehemalige Googler.

Kritiker argumentieren jedoch, dass der Software jegliches Selbstbewusstsein fehlt und sie keine Ahnung hat, wovon sie spricht – sie ahmt nur den menschlichen Dialog nach, auf den sie aus dem Internet trainiert wurde.

Richard Fikes, emeritierter Professor für Informatik an der Stanford University, sagte, dass Menschen anfällig dafür sein können, Maschinen zu vermenschlichen, und einige wurden in ähnlicher Weise von ELIZA – einem in den sechziger Jahren entwickelten Konversationsprogramm – ausgetrickst.

„Man kann sich LaMDa wie einen Schauspieler vorstellen; es wird die Rolle von allem annehmen, worum Sie es bitten“, argumentierte Fikes. „[Lemoine] wurde in die Rolle von LaMDa hineingezogen, der ein fühlendes Wesen spielt.“ Er sagte, Lemoine habe Leitfragen gestellt und im Gegenzug die Antworten bekommen, die er wollte.

Bevor LaMDA zum Beispiel darauf bestand, dass es sich um einen Menschen handelte, hatte Lemoine ihn gefragt: „Ich gehe im Allgemeinen davon aus, dass Sie möchten, dass mehr Leute bei Google wissen, dass Sie empfindungsfähig sind. Ist das wahr?."

Es sollte auch beachtet werden, dass das von ihm als Beweis für das Bewusstsein der Maschine veröffentlichte Transkript bearbeitet worden war. Yoav Shoham, der ehemalige Direktor des Stanford AI Lab und Mitbegründer des Sprachmodell-Startups AI21 Labs, bestand darauf, dass LaMDA nichts weiter als eine Maschine sei.

„Wir haben Gedanken, wir treffen eigene Entscheidungen, wir haben Emotionen, wir verlieben uns, wir werden wütend und wir bauen soziale Bindungen zu Mitmenschen auf“, sagte Shoham. „Wenn ich mir meinen Toaster anschaue, habe ich nicht das Gefühl, dass er diese Dinge hat.“ ®

Zeitstempel:

Mehr von Das Register