ChatGPT von OpenAI wird wegen mangelnder Reaktionsfähigkeit kritisiert

ChatGPT von OpenAI wird wegen mangelnder Reaktionsfähigkeit kritisiert

ChatGPT von OpenAI wird wegen nicht reagierendem Verhalten kritisiert PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

OpenAI gab kürzlich zu, dass sein großes Sprachmodell, ChatGPT 4, „faul“ geworden ist, was den Fortschritt der KI in der Zukunft beeinflussen könnte. Diese Enthüllung folgt auf zahlreiche Beschwerden von Benutzern über die nachlassende Leistung des Modells.

ChatGPT-Benutzer bemerkten, dass ChatGPT-4 langsamer wurde und sich Berichten zufolge weigerte, einige Aufgaben zu erledigen oder bestimmte Ergebnisse zurückzugeben. OpenAI, das Unternehmen hinter dem beliebten Sprachmodell ChatGPT, gab zu, dass das Modell träge geworden sei, weiß aber nicht genau, warum.

Lies auch: Deepfake-Audio von Michal Šimečka rockt die Wahlszene in der Slowakei

Laut OpenAI könnte dies Auswirkungen auf die Zukunft der künstlichen Intelligenz (KI) haben.

Some X (ehemals Twitter) Nutzer nennen das Ereignis eine „Winterpause-Hypothese“. Obwohl unbewiesen, bleibt die Tatsache bestehen, dass die Welt der KI-Sprachmodelle seltsam geworden ist, da KI-Forscher sie ernst nehmen.

ChatGPT-4 wird „faul“

Es gab mehrere Benutzerberichte über den Leistungsabfall des Modells. Sie hoben Probleme wie unvollständige Aufgaben, Abkürzungen und die Vermeidung der Verantwortung für angewiesene ChatGPT-Aufgaben hervor.

OpenAI nahm das Feedback in einer Reihe von Tweets zur Kenntnis und behauptete, dass das Modell seit dem 11. November keine Aktualisierungen erfahren habe. Sie sagten weiter, dass die beobachtete Faulheit nicht beabsichtigt sei und führten sie auf die Unvorhersehbarkeit großer Sprachmodelle zurück.

Einige X-Accounts twitterten offen über ihren Unmut. Marsianer gefragt ob große Sprachmodelle saisonale Depressionen simulieren könnten. Auch Mike Swoopskee gefragt Wenn das Sprachmodell aus seinen Trainingsdaten gelernt hätte, dass die Leute normalerweise im Dezember langsamer werden und größere Projekte auf das neue Jahr verschieben, und das ist der Grund, warum es in letzter Zeit faul war.

Darüber hinaus bemerkten die Leute, dass einige zu denken begannen, dass hinter der Idee mehr steckt, da die Systemaufforderung für ChatGPT den Bot mit dem aktuellen Datum versorgt.

Solch ein seltsamer Vorschlag wurde in Betracht gezogen, da Untersuchungen gezeigt haben, dass große Sprachmodelle wie GPT-4 auf Ermutigung im menschlichen Stil reagieren. GPT-4 unterstützt die kostenpflichtige Version von ChatGPT und reagiert auf menschliche Ermutigungen, etwa wenn man dem Bot sagt, er solle „tief durchatmen“, bevor er eine Matheaufgabe löst.

Allerdings haben die Menschen weniger formal damit experimentiert, dem großen Sprachmodell zu sagen, dass dies der Fall sein wird ein Trinkgeld erhalten für die Arbeit. Wenn Sie dem Bot außerdem mitteilen, dass er keine Finger hat, können die Ausgaben verlängert werden, wenn das Modell träge wird.

Weg nach vorn?

Die langsame Leistung von ChatGPT-4 könnte darauf hindeuten, dass es möglicherweise länger als erwartet dauert, bis eine echte künstliche Intelligenz erreicht ist, die selbstständig denken und Probleme lösen kann. Daher besteht Unsicherheit über die Fähigkeit der KI, Aufgaben selbstständig zu erledigen. Mehrere Bereiche, die auf KI angewiesen sind, werden von dieser Verzögerung im Prozess betroffen sein.

Allerdings können wir es als eine Chance zum Lernen sehen, anstatt dies als völligen Stillstand zu betrachten.

Bezeichnenderweise können Wissenschaftler mehr über die Funktionsweise von KI erfahren, indem sie herausfinden, warum ChatGPT Probleme hat. Dies wird ihnen dabei helfen, KIs zu entwickeln, die auch in Zukunft aktiv und intelligent bleiben.

Darüber hinaus erinnern die Schwierigkeiten von ChatGPT an den schwierigen Weg, der vor uns liegt, auch wenn die unmittelbare Zukunft der KI möglicherweise nicht so großartig ist, wie wir dachten. Wenn wir diese Herausforderungen erkennen und mit ihnen umgehen, können wir uns mit besserem Wissen und besserer Sorgfalt der echten KI annähern.

Zeitstempel:

Mehr von MetaNews