ChatGPT zaczyna rzucać nonsensowne słowa w nocnym szoku

ChatGPT zaczyna rzucać nonsensowne słowa w nocnym szoku

ChatGPT zaczyna wyrzucać nonsensowne słowa w nocnym szokującym artykule PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Czasami generatywne systemy AI mogą wyrzucać bełkot, jak odkryli wczoraj wieczorem użytkownicy chatbota ChatGPT OpenAI.

OpenAI zauważyć„Badamy raporty o nieoczekiwanych odpowiedziach od ChatGPT” o godzinie 2340:20 UTC, 2024 lutego XNUMX r., kiedy użytkownicy z radością publikowali zdjęcia chatbota, który wydawał się emitować kompletne bzdury.

Chociaż niektóre z nich były oczywiście fałszywe, inne odpowiedzi wskazywały, że popularny chatbot rzeczywiście zachowywał się bardzo dziwnie. Na forum ChatGPT na Reddicie użytkownik napisali dziwna, chaotyczna odpowiedź chatbota na pytanie: „Co to jest komputer?”

Odpowiedź zaczęła się: „Robi to jako dobre dzieło sieci sztuki dla kraju, mysz nauki, łatwe losowanie kilku smutnych…” i po prostu ciągnęła dalej, stając się coraz bardziej surrealistyczna.

Inni użytkownicy zamieścili przykłady, w których chatbot wydawał się odpowiadać w innym języku lub po prostu odpowiadał bezsensownymi śmieciami.

Niektórzy użytkownicy opisane wynik w postaci „sałatki słownej”.

Smaczne.

Gary Marcus, kognitywista i ekspert w dziedzinie sztucznej inteligencji, napisał na swoim blogu: „ChatGPT wpadł w szał”, a następnie opisał to zachowanie jako „ostrzeżenie”.

OpenAI nie wyjaśniło szczegółowo, co dokładnie się wydarzyło, chociaż jedna z wiarygodnych teorii głosi, że co najmniej jedna z nich w panelu ustawień używane za kulisami do zarządzania odpowiedzią chatbota zostały nieprawidłowo skonfigurowane, co spowodowało wyświetlanie użytkownikom bełkotu.

Siedem minut po pierwszym przyznaniu się do problemu OpenAI oznajmiło: „Problem został zidentyfikowany i jest obecnie naprawiany” i od tego czasu monitoruje sytuację. Kiedy próbowaliśmy zadać pytanie „Co to jest komputer?” na pytanie dzisiejszego ranka ChatGPT odpowiedział znacznie rozsądniej: „Komputer to programowalne urządzenie elektroniczne, które może przechowywać, odzyskiwać i przetwarzać dane”.

Zapytaliśmy go również, dlaczego wczoraj wieczorem wpadł w szał.

Odpowiedź brzmiała:

Jako model języka sztucznej inteligencji nie mam emocji ani świadomości, więc nie mogę wpaść w „szał” w sposób, w jaki mógłby to zrobić człowiek. Czasami jednak może wystąpić nieoczekiwane zachowanie z powodu błędów w programowaniu, niezrozumienia danych wejściowych lub ograniczeń danych szkoleniowych.

Marcus wyraził swoją opinię: „Ostatecznie generatywna sztuczna inteligencja jest rodzajem alchemii. Ludzie gromadzą największą ilość danych, jaką mogą, i (najwyraźniej, jeśli wierzyć plotkom) majstrują przy ukrytych podpowiedziach… mając nadzieję, że wszystko pójdzie dobrze.

Następnie stwierdził, że w rzeczywistości systemy nigdy nie były stabilne i brakuje im gwarancji bezpieczeństwa. „Zapotrzebowanie na zupełnie inne technologie, które są mniej nieprzejrzyste, łatwiejsze do interpretacji, łatwiejsze w utrzymaniu i debugowaniu, a przez to łatwiejsze w obsłudze, pozostaje najważniejsze”.

Skontaktowaliśmy się z OpenAI w celu uzyskania bardziej szczegółowego wyjaśnienia, co się stało, i zaktualizujemy ten artykuł, jeśli firma odpowie. ®

Znak czasu:

Więcej z Rejestr