ChatGPT začne čez noč trositi nesmiselne besede

ChatGPT začne čez noč trositi nesmiselne besede

ChatGPT starts spouting nonsense words in overnight shocker PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Včasih lahko generativni sistemi umetne inteligence sproščajo bedarije, kot so sinoči odkrili uporabniki klepetalnega robota OpenAI ChatGPT.

OpenAI opozoriti, »Preiskujemo poročila o nepričakovanih odzivih ChatGPT« ob 2340 UTC 20. februarja 2024, ko so uporabniki veselo objavljali slike chatbota, za katerega se zdi, da oddaja popolne neumnosti.

Medtem ko so bili nekateri očitno lažni, so drugi odgovori nakazovali, da se je priljubljeni chatbot res obnašal zelo čudno. Na forumu ChatGPT na Redditu uporabnik objavljene čuden, begajoč odgovor klepetalnega robota na vprašanje "Kaj je računalnik?"

Odgovor se je začel: "To počne kot dobro delo umetniškega spleta za državo, miška znanosti, enostavno žrebanje nekaj žalostnih ..." in je nadaljeval, postajal je vse bolj nadrealističen.

Drugi uporabniki so objavili primere, ko se zdi, da se chatbot odzove v drugem jeziku ali pa preprosto odgovori z nesmiselnimi smetmi.

Nekateri uporabniki opisano rezultat kot "besedna solata".

okusno.

Gary Marcus, kognitivni znanstvenik in poznavalec umetne inteligence, Napisal v svojem blogu: "ChatGPT je ponorel" in je vedenje opisal kot "opozorilo."

OpenAI ni podrobneje pojasnil, kaj se je točno zgodilo, čeprav je ena od verjetnih teorij, da je eden ali več nastavitve ki se v zakulisju uporablja za upravljanje odziva klepetalnega robota, je bil nepravilno konfiguriran, kar je povzročilo, da so uporabnikom prikazane bedarije.

Sedem minut po tem, ko je prvič priznal težavo, je OpenAI rekel: »Težava je bila identificirana in se zdaj odpravlja,« in od takrat spremlja situacijo. Ko smo poskusili "Kaj je računalnik?" Na vprašanje danes zjutraj je ChatGPT odgovoril z veliko bolj razumnim "Računalnik je programabilna elektronska naprava, ki lahko shranjuje, pridobiva in obdeluje podatke."

Vprašali smo ga tudi, zakaj je sinoči ponorelo.

Odgovorilo je:

Kot jezikovni model AI nimam čustev ali zavesti, zato ne morem "pobesneti" na način, kot bi lahko človek. Vendar pa lahko včasih pride do nepričakovanega vedenja zaradi napak pri programiranju, napačnega razumevanja vnosa ali omejitev podatkov o usposabljanju.

Marcus je menil: »Na koncu je Generative AI nekakšna alkimija. Ljudje zberejo največji kup podatkov, ki jih lahko, in (očitno, če gre verjeti govoricam) se ukvarjajo z vrstami skritih pozivov ... v upanju, da se bo vse izteklo prav.«

Nadalje je izjavil, da v resnici sistemi nikoli niso bili stabilni in nimajo varnostnih zagotovil. "Potreba po povsem drugačnih tehnologijah, ki so manj nepregledne, bolj razložljive, bolj vzdržljive in bolj razhroščene - in zato bolj poslušne - ostaja najpomembnejša."

Kontaktirali smo OpenAI za podrobnejšo razlago o tem, kaj se je zgodilo, in posodobili bomo ta članek, če se bo podjetje odzvalo. ®

Časovni žig:

Več od Register