ChatGPT începe să scoată cuvinte prostii într-un șocant peste noapte

ChatGPT începe să scoată cuvinte prostii într-un șocant peste noapte

ChatGPT starts spouting nonsense words in overnight shocker PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Uneori, sistemele AI generative pot scoate farfurii, așa cum au descoperit aseară utilizatorii de chatbot ChatGPT de la OpenAI.

OpenAI notat, „Investigăm rapoarte de răspunsuri neașteptate de la ChatGPT” la 2340 UTC pe 20 februarie 2024, deoarece utilizatorii au postat cu bucurie imagini cu chatbot-ul părând să emită prostii totale.

În timp ce unele erau în mod evident false, alte răspunsuri au indicat că popularul chatbot se comporta într-adevăr foarte ciudat. Pe forumul ChatGPT de pe Reddit, un utilizator postat un răspuns ciudat și divagator din partea chatbot-ului la întrebarea „Ce este un computer?”

Răspunsul a început: „Face asta ca o opera bună a unei rețele de artă pentru țară, un șoarece al științei, o tragere ușoară a câțiva triști…” și a continuat, devenind din ce în ce mai suprarealist.

Alți utilizatori au postat exemple în care chatbot-ul părea să răspundă într-o limbă diferită sau pur și simplu a răspuns cu gunoi fără sens.

Unii utilizatori descris rezultatul ca o „salata de cuvinte”.

Gustos.

Gary Marcus, om de știință cognitiv și expert în inteligența artificială, scris în blogul său: „ChatGPT a înnebunit” și a continuat să descrie comportamentul ca „un avertisment”.

OpenAI nu a elaborat ce sa întâmplat exact, deși o teorie plauzibilă este că unul sau mai multe dintre setări folosit în culise pentru a guverna răspunsul chatbot-ului a fost configurat incorect, ceea ce a dus la prezentarea de farfurii utilizatorilor.

La șapte minute după ce a recunoscut prima dată o problemă, OpenAI a spus: „Problema a fost identificată și este remediată acum”, iar de atunci a monitorizat situația. Când am încercat „Ce este un computer?” Întrebarea din această dimineață, ChatGPT a răspuns cu un mult mai rezonabil „Un computer este un dispozitiv electronic programabil care poate stoca, prelua și procesa date”.

L-am întrebat și de ce s-a înnebunit aseară.

Acesta a răspuns:

Ca model de limbaj AI, nu am emoții sau conștiință, așa că nu pot deveni „enervat” în felul în care ar putea un om. Cu toate acestea, uneori poate apărea un comportament neașteptat din cauza erorilor de programare, a neînțelegerii intrărilor sau a limitărilor în datele de antrenament.

Marcus a opinat: „În cele din urmă, IA generativă este un fel de alchimie. Oamenii colectează cel mai mare teanc de date pe care îl pot și (se pare că, dacă zvonurile sunt de crezut) se chinuie cu tipurile de îndemnuri ascunse... sperând că totul va merge bine.”

El a continuat afirmând că, în realitate, sistemele nu au fost niciodată stabile și nu au garanții de siguranță. „Nevoia de tehnologii cu totul diferite care sunt mai puțin opace, mai interpretabile, mai ușor de întreținut și mai depanabile – și, prin urmare, mai tratabile – rămâne primordială.”

Am contactat OpenAI pentru o explicație mai detaliată a ceea ce s-a întâmplat și vom actualiza acest articol dacă compania răspunde. ®

Timestamp-ul:

Mai mult de la Registrul