ChatGPT начал произносить бессмысленные слова в ночном шоке

ChatGPT начал произносить бессмысленные слова в ночном шоке

ChatGPT начинает извергать бессмысленные слова в ночном шоке PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Иногда генеративные системы искусственного интеллекта могут изрыгать тарабарщину, как вчера вечером обнаружили пользователи чат-бота OpenAI ChatGPT.

OpenAI отметил,: «Мы расследуем сообщения о неожиданных ответах от ChatGPT» в 2340:20 UTC 2024 февраля XNUMX года, когда пользователи радостно публиковали изображения чат-бота, который, похоже, издавал полную ерунду.

Хотя некоторые из них были явно фейковыми, другие ответы указывали на то, что популярный чат-бот действительно вел себя очень странно. На форуме ChatGPT на Reddit пользователь размещены странный, бессвязный ответ чат-бота на вопрос: «Что такое компьютер?»

Ответ начинался так: «Он делает это как хорошее произведение искусства для страны, мышь науки, легкий розыгрыш для немногих печальных…» и просто продолжал идти, становясь все более сюрреалистичным.

Другие пользователи публиковали примеры, когда чат-бот отвечал на другом языке или просто отвечал бессмысленным мусором.

Некоторые пользователи описано вывод в виде «словесного салата».

Вкусно.

Гэри Маркус, когнитивист и эксперт по искусственному интеллекту, писал в своем блоге: «ChatGPT пришел в ярость» и описал свое поведение как «предупреждение».

OpenAI не уточнила, что именно произошло, хотя одна из правдоподобных теорий состоит в том, что один или несколько из настройки используемый за кулисами для управления ответом чат-бота, был настроен неправильно, в результате чего пользователям была представлена ​​тарабарщина.

Через семь минут после первого признания проблемы OpenAI сообщила: «Проблема выявлена ​​и сейчас устраняется», и с тех пор отслеживает ситуацию. Когда мы попробовали вопрос «Что такое компьютер?» Сегодня утром на вопрос ChatGPT ответил гораздо более разумным: «Компьютер — это программируемое электронное устройство, которое может хранить, извлекать и обрабатывать данные».

Мы также спросили его, почему он взбесился прошлой ночью.

Оно ответило:

Как модель языка ИИ, у меня нет ни эмоций, ни сознания, поэтому я не могу впадать в «берсерк», как это может сделать человек. Однако иногда неожиданное поведение может возникнуть из-за ошибок в программировании, неправильного понимания входных данных или ограничений обучающих данных.

Маркус высказал мнение: «В конце концов, генеративный ИИ — это своего рода алхимия. Люди собирают как можно большую кучу данных и (очевидно, если верить слухам) возятся со всевозможными скрытыми подсказками… надеясь, что все получится правильно».

Далее он заявил, что на самом деле системы никогда не были стабильными и не имеют гарантий безопасности. «Потребность в совершенно других технологиях, которые были бы менее непрозрачными, более интерпретируемыми, более удобными в обслуживании и более отлаживаемыми — и, следовательно, более управляемыми — остается первостепенной».

Мы связались с OpenAI для более подробного объяснения того, что произошло, и обновим эту статью, если компания ответит. ®

Отметка времени:

Больше от Регистр