Als nächstes AI-Designed Proteins for Medicine

Als nächstes AI-Designed Proteins for Medicine

Als nächstes AI-Designed Proteins for Medicine PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Die Organisation für psychische Gesundheit Koko nutzte ChatGPT erfolgreich, um ihren Online-Support zu verbessern, aber als die Benutzer erfuhren, dass ein Chatbot Antworten mitverfasste, verschwanden die wahrgenommenen Vorteile.

Die Rezeption des Experiments in den sozialen Medien war gemischt, wobei einige Menschen vom Potenzial der KI in diesem Bereich fasziniert waren und andere sich entschieden gegen das Eindringen künstlicher Intelligenz aussprachen.

Keine Abkürzungen zum psychischen Wohlbefinden

Ein aktuelles Experiment von Koko, das menschliche Reaktionen ergänzte ChatGPT schien seinen Benutzern zunächst erhebliche Vorteile zu bieten.

Koko ist eine gemeinnützige Organisation für psychische Gesundheit, die allen, die mit psychischer Gesundheit zu kämpfen haben, Unterstützung und Intervention bietet, insbesondere aber Jugendlichen. Als Teil seiner Mission, psychische Gesundheit für jedermann zugänglich zu machen, erweiterte das Unternehmen seine freiwilligen Ressourcen mit künstlicher Intelligenz.

Laut Koko-Gründer Rob Morris verlief der Versuch zunächst erfolgreich. Morris gibt an, dass KI-unterstützte Antworten anfangs besser angenommen wurden und dazu beigetragen haben, die Wartezeiten zu verkürzen. Leider hielten die Vorteile nicht an.

„Sobald die Leute erfuhren, dass die Nachrichten von einer Maschine miterstellt wurden, funktionierte es nicht. Simulierte Empathie fühlt sich seltsam und leer an“, sagte Morris auf Twitter letzte Woche. „Maschinen haben keine gelebte, menschliche Erfahrung, also klingt es unauthentisch, wenn sie sagen „das klingt hart“ oder „ich verstehe“.

Morris kam schließlich zu dem Schluss, dass Chatbots „sich nicht die Zeit nehmen, an Sie zu denken. Eine Chatbot-Antwort, die in 3 Sekunden generiert wird, fühlt sich, egal wie elegant, irgendwie billig an.“

Die Integration ChatGPT into Koko ist Teil einer langjährigen Partnerschaft, die bis Juni 2020 zurückreicht, wobei ChatGPT menschliche Assistenten bei der Beantwortung von über 30,000 Nachrichten unterstützt.

Eine gemischte Antwort

Die Idee einer KI-unterstützten psychischen Gesundheitsintervention stößt in den sozialen Medien auf weit verbreitete Faszination und ein kleines, aber greifbares Maß an Entsetzen.

Eine Reihe von Leuten nahm Anstoß an Morris' Aussage, dass eine KI „unauthentisch klingt“, wenn sie mit Menschen sympathisiert.

Als Twitter-Nutzer TatsächlichStryder wies darauf hin,, „Es klingt nicht unauthentisch, es IST unauthentisch. Das gesamte Gespräch ist eine optimierte Mimik.“

Die gleichen oder ähnliche Gefühle wurden von vielen geteilt. Andere äußerten sich schockiert oder angewidert und stellten die Ethik eines solchen Experiments überhaupt in Frage.

Allerdings waren nicht alle so entsetzt. Hyäne Mama verglich die Authentizität positiv mit der Bereitstellung psychischer Gesundheit durch den britischen National Health Service (NHS): „Es fühlte sich auch unauthentisch an, wenn es von meinen NHS-Praktikern für psychische Gesundheit kam … Ich werde GPT jederzeit übernehmen.“

Was die Tatsache betrifft, dass Chatbots keine gelebte Erfahrung haben, fügte sie hinzu: „Therapeuten und insbesondere Psychiater und Psychologen haben möglicherweise auch keine gelebte Erfahrung.“

Verlangen nach irgendeiner Gesellschaft

Die unmittelbare Reaktion auf Kokos Experiment scheint darauf hinzudeuten, dass die Menschheit durchaus bereit für künstliche Empathie ist, aber könnte sich das im Laufe der Zeit ändern?

Wie Morris selbst fragt: „Können Maschinen dieses [Problem] überwinden? Wahrscheinlich."

Morris fährt fort: „Vielleicht sind wir so verzweifelt danach, gehört zu werden, etwas zu haben, das uns wirklich Aufmerksamkeit schenkt, ohne abgelenkt zu werden, ohne auf ein Telefon zu schauen oder nachzusehen oder E-Mails oder Twitter zu checken – vielleicht sehnen wir uns so sehr danach uns selbst davon überzeugen, dass sich die Maschinen wirklich um uns kümmern.“

Klarstellungen sorgen für weitere Verwirrung

Morris hat auf die Gegenreaktion von Kokus jüngstem Experiment reagiert und versucht, die starke Kritik zu unterdrücken, der die Organisation von einigen Seiten ausgesetzt war.

Leider scheint die Klarstellung nur noch mehr Verwirrung zu stiften.

Morris erklärt nun, dass allen Nutzern bewusst war, dass die Antworten mit Hilfe einer künstlichen Intelligenz erstellt wurden und dass niemand, der Hilfe suchte, jemals direkt mit einer KI gechattet hatte.

„Diese Funktion war Opt-in“, sagte Morris, bevor er das Wasser noch einmal durch Hinzufügen trübt. „Jeder wusste von dem Feature, als es ein paar Tage live war.“

Unabhängig davon, ob die Benutzer von Anfang an von der Funktion wussten oder nicht, die Folgen des Experiments beweisen, dass es konkrete Fallstricke gibt, die es zu vermeiden gilt, wenn KI-Technologie in bestehende Dienste eingesetzt wird.

Zeitstempel:

Mehr von MetaNews