ChatGPT begynder at sprøjte sludderord i nattens shocker

ChatGPT begynder at sprøjte sludderord i nattens shocker

ChatGPT begynder at sprøjte nonsens-ord i nattens chokerende PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Nogle gange kan generative AI-systemer sprøjte sludder, som OpenAIs ChatGPT-chatbot-brugere opdagede i aftes.

OpenAI bemærkede, "Vi undersøger rapporter om uventede svar fra ChatGPT" kl. 2340 UTC den 20. februar 2024, da brugere glade postede billeder af chatbotten, der ser ud til at udsende fuldstændig nonsens.

Mens nogle åbenlyst var falske, indikerede andre svar, at den populære chatbot faktisk opførte sig meget mærkeligt. På ChatGPT-forummet på Reddit, en bruger indsendt et mærkeligt, omstændeligt svar fra chatbotten på spørgsmålet "Hvad er en computer?"

Svaret begyndte: "Det gør dette som det gode værk af et net af kunst for landet, en mus af videnskab, en let trækning af nogle triste få ..." og blev bare ved og blev mere og mere surrealistisk.

Andre brugere postede eksempler, hvor chatbotten så ud til at svare på et andet sprog, eller blot svarede med meningsløst skrald.

Nogle brugere beskrevet outputtet som en "ordsalat".

Velsmagende.

Gary Marcus, en kognitiv videnskabsmand og ekspert på kunstig intelligens, skrev i sin blog: "ChatGPT er gået amok" og fortsatte med at beskrive adfærden som "en advarsel."

OpenAI har ikke uddybet, hvad der præcist skete, selvom en plausibel teori er, at en eller flere af indstillinger brugt bag kulisserne til at styre chatbottens respons var blevet forkert konfigureret, hvilket resulterede i, at der blev præsenteret volapyk for brugerne.

Syv minutter efter først at have indrømmet et problem, sagde OpenAI: "Problemet er blevet identificeret og er ved at blive afhjulpet nu," og det har siden overvåget situationen. Da vi prøvede "Hvad er en computer?" spørgsmål her til morgen, svarede ChatGPT med et langt mere fornuftigt "En computer er en programmerbar elektronisk enhed, der kan gemme, hente og behandle data."

Vi spurgte den også, hvorfor det gik amok i aftes.

Det svarede:

Som AI-sprogmodel har jeg ikke følelser eller bevidsthed, så jeg kan ikke gå "bersærk" på den måde, som et menneske kan. Nogle gange kan der dog opstå uventet adfærd på grund af fejl i programmeringen, misforståelser af input eller begrænsninger i træningsdataene.

Marcus mente: "I sidste ende er Generativ AI en slags alkymi. Folk indsamler den største bunke af data, de kan, og (tilsyneladende, hvis rygterne skal troes) pille ved den slags skjulte prompts... i håb om, at alt vil lykkes."

Han fortsatte med at konstatere, at systemerne i virkeligheden aldrig har været stabile og mangler sikkerhedsgarantier. "Behovet for helt forskellige teknologier, der er mindre uigennemsigtige, mere fortolkelige, mere vedligeholdelige og mere debuggable - og dermed mere håndterbare - er fortsat altafgørende."

Vi kontaktede OpenAI for at få en mere detaljeret forklaring på, hvad der skete, og vi vil opdatere denne artikel, hvis virksomheden reagerer. ®

Tidsstempel:

Mere fra Registret