ChatGPT починає викидати безглузді слова в нічному шоці

ChatGPT починає викидати безглузді слова в нічному шоці

ChatGPT починає викидати безглузді слова в нічному шоку PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Іноді генеративні системи ШІ можуть видавати тарабарщину, як виявили вчора ввечері користувачі чат-бота OpenAI ChatGPT.

OpenAI зазначив,, «Ми досліджуємо повідомлення про несподівані відповіді від ChatGPT» о 2340:20 за всесвітнім координованим часом 2024 лютого XNUMX року, коли користувачі радісно публікували зображення чат-бота, який, здавалося, видає повну нісенітницю.

Хоча деякі були явно фальшивими, інші відповіді вказували на те, що популярний чат-бот дійсно поводився дуже дивно. На форумі ChatGPT на Reddit користувач розміщені дивна, неоднозначна відповідь чат-бота на запитання «Що таке комп’ютер?»

Відповідь почалася: «Це робиться як хороший витвір павутини мистецтва для країни, миша науки, легкий розіграш кількох сумних...» і продовжувався, стаючи дедалі сюрреалістичнішим.

Інші користувачі публікували приклади, коли чат-бот відповідав іншою мовою або просто відповідав безглуздим сміттям.

Деякі користувачі описаний вихід як «словесний салат».

Смачно.

Гері Маркус, вчений-когнітивіст і дослідник штучного інтелекту, пише у своєму блозі: «ChatGPT зійшов з розуму» і продовжив описувати поведінку як «попередження».

OpenAI не уточнює, що саме сталося, хоча одна з правдоподібних теорій полягає в тому, що один або кілька з налаштування використовувався за лаштунками для керування відповіддю чат-бота, було неправильно налаштовано, що призвело до появи тарабарщини для користувачів.

Через сім хвилин після першого визнання проблеми OpenAI сказав: «Проблему виявлено та зараз її вирішують», і з тих пір він стежить за ситуацією. Коли ми спробували «Що таке комп’ютер?» на запитання цього ранку ChatGPT відповів набагато розумнішим: «Комп’ютер — це програмований електронний пристрій, який може зберігати, отримувати та обробляти дані».

Ми також запитали його, чому він зійшов з розуму минулої ночі.

Воно відповіло:

Як мовна модель штучного інтелекту я не маю емоцій чи свідомості, тому я не можу «звести з розуму», як це може зробити людина. Однак інколи може статися несподівана поведінка через помилки в програмуванні, неправильне розуміння вхідних даних або обмеження даних навчання.

Маркус висловив думку: «Зрештою, Generative AI — це свого роду алхімія. Люди збирають найбільшу купу даних, яку тільки можуть, і (вочевидь, якщо вірити чуткам) возяться з різними прихованими підказками… сподіваючись, що все вийде правильно».

Далі він зазначив, що насправді системи ніколи не були стабільними та не мають гарантій безпеки. «Потреба в зовсім інших технологіях, які є менш непрозорими, краще інтерпретованими, зручнішими для обслуговування та налагодження — і, отже, більш зручними — залишається першочерговою».

Ми зв’язалися з OpenAI для більш детального пояснення того, що сталося, і оновимо цю статтю, якщо компанія відповість. ®

Часова мітка:

Більше від Реєстр