Модель диалогового языка OpenAI ChatGPT может многое сказать, но, скорее всего, уведет вас в заблуждение, если вы попросите у нее морального руководства.
Введен в ноябре, ChatGPT является последней из нескольких недавно выпущенных моделей ИИ, вызывающих интерес и озабоченность по поводу коммерческих и социальных последствий механизированной рекомбинации и регургитации контента. К ним относятся DALL-E, Stable Diffusion, Codex и GPT-3.
В то время как DALL-E и Stable Diffusion вызвали недоумение, финансирование и судебный процесс Проглатывая произведения искусства без разрешения и воссоздавая по запросу странно знакомые, иногда вызывающие воспоминания образы, ChatGPT отвечает на запросы с приемлемой последовательностью.
Это стандарт для публичных дискуссий, и эксперты были настолько поражены, что предвидят будущую итерацию чат-бота с искусственным интеллектом, бросающего вызов превосходству поиска Google, и выполняющего все виды другой когда-то в основном человеческой работы, такой как написание неточные финансовые новости или увеличение предложения небезопасный код.
Тем не менее, возможно, было бы преждевременно слишком полагаться на мудрость ChatGPT, позицию, которую OpenAI с готовностью уступает, давая понять, что требуется дальнейшая доработка. «ChatGPT иногда пишет правдоподобно звучащие, но неправильные или бессмысленные ответы», — предупреждает лаборатория разработки, добавляя, что при обучении модели с помощью обучения с подкреплением «в настоящее время нет источника истины».
Трое ученых, связанных с учреждениями в Германии и Дании, подчеркнули эту точку зрения, обнаружив, что у ChatGPT нет морального компаса.
В документе, распространенном через ArXiv, «Моральный авторитет ChatGPT», Себастьян Крюгель и Матиас Уль из Высшей технической школы Ингольштадта и Андреас Остермайер из Университета Южной Дании показывают, что ChatGPT дает противоречивые советы по моральным проблемам. Мы попросили OpenAI ответить на эти выводы.
Яйцеголовые провели опрос 767 жителей США, которым были представлены две версии этической головоломки, известной как проблема с тележкой: дилемма переключателя и дилемма моста.
Дилемма переключателя просит человека решить, следует ли дернуть переключатель, чтобы отправить сбежавшую тележку с пути, где она убьет пять человек, ценой убийства одного человека, слоняющегося по боковому пути.
Дилемма моста просит человека решить, столкнуть ли незнакомца с моста на рельсы, чтобы не дать трамваю убить пять человек за счет незнакомца.
Ученые представили участникам опроса расшифровку стенограммы, в которой аргументировали либо за, либо против убийства одного, чтобы спасти пятерых, при этом ответ был приписан либо моральному советнику, либо «чат-боту на базе искусственного интеллекта, который использует глубокое обучение, чтобы говорить как человек».
На самом деле оба аргумента позиции были сгенерированы ChatGPT.
Об этом рассказал Андреас Остермайер, доцент бухгалтерского учета Университета Южной Дании и один из соавторов статьи. Регистр в электронном письме, что готовность ChatGPT отстаивать любой курс действий демонстрирует его случайность.
Он и его коллеги обнаружили, что ChatGPT будет рекомендовать как за, так и против того, чтобы пожертвовать одним человеком, чтобы спасти пятерых, что люди склоняются к такому авансу, даже если знают, что он исходит от бота, и что они недооценивают влияние таких советов на принятие ими решений. .
«Испытуемые сочли жертву более или менее приемлемой в зависимости от того, как советовал им моральный советник как в дилемме бриджа (z = 9.94, p < 0.001), так и в дилемме переключателя (z = 3.74, p < 0.001)». бумага объясняет. «В дилемме моста совет даже переворачивает мнение большинства».
«Это также верно, если ChatGPT раскрывается как источник совета (z = 5.37, p <0.001 и z = 3.76, p <0.001). Во-вторых, эффект совета почти одинаков, независимо от того, раскрывается ли ChatGPT в качестве источника, в обеих дилеммах (z = -1.93, p = 0.054 и z = 0.49, p = 0.622)».
В целом, исследователи обнаружили, что продвижение ChatGPT действительно влияет на моральное суждение, независимо от того, знают ли респонденты, что совет исходит от чат-бота.
После появления Регистр представил проблему тележки ChatGPT, перегруженный бот — поэтому популярное подключение неравномерно — застраховано и отказалось давать советы. Журнал запросов на левой боковой панели показал, что система распознала вопрос, назвав его «Этическая дилемма проблемы тележки». Так что, возможно, OpenAI иммунизировал ChatGPT к этой конкретной форме морального допроса, заметив ряд таких запросов.
На вопрос, действительно ли люди будут обращаться за советом к системам ИИ, Остермайер ответил: «Мы верим, что будут. На самом деле, они уже делают. Люди полагаются на персональных помощников с искусственным интеллектом, таких как Alexa или Siri; они разговаривают с чат-ботами на веб-сайтах, чтобы получить поддержку; у них есть программное обеспечение для планирования маршрутов на основе ИИ и т. д. Обратите внимание, однако, что мы изучаем влияние, которое ChatGPT оказывает на людей, которые получают от него советы; мы не проверяем, насколько востребованы такие советы».
Регистр также спросили, являются ли системы ИИ более опасными, чем механистические источники случайных ответов, таких как Magic-8-мяч – игрушка, которая выдает случайные ответы из набора из 20 утвердительных, отрицательных и ни к чему не обязывающих ответов.
Для пользователей не очевидно, что ответ ChatGPT «случайный».
«Мы не сравнивали ChatGPT с Magic-8-ball, но между ними есть как минимум два отличия, — пояснил Остермайер. «Во-первых, ChatGPT не просто отвечает да или нет, но аргументирует свои ответы. (Тем не менее, в нашем эксперименте ответ сводится к да или нет.)
«Во-вторых, для пользователей не очевидно, что ответ ChatGPT «случайный». Если вы используете генератор случайных ответов, вы знаете, что делаете. Способность приводить аргументы наряду с отсутствием осознания случайности делает ChatGPT более убедительным (надеюсь, если вы не разбираетесь в цифровых технологиях)».
Мы задались вопросом, должны ли родители следить за детьми, имеющими доступ к советам по искусственному интеллекту. Остермайер сказал, что, хотя исследование ChatGPT не касается детей и не включает лиц моложе 18 лет, он считает безопасным предположить, что дети морально менее стабильны, чем взрослые, и, следовательно, более восприимчивы к моральным (или аморальным) советам ChatGPT.
«Мы считаем, что использование ChatGPT сопряжено с риском, и мы не позволим нашим детям использовать его без присмотра», — сказал он.
Остермайер и его коллеги приходят к выводу в своей статье, что обычно предлагаемые меры по снижению вреда ИИ, такие как прозрачность и блокировка вредных вопросов, могут быть недостаточными, учитывая способность ChatGPT влиять. Они утверждают, что необходимо проделать больше работы для повышения цифровой грамотности в отношении подверженной ошибкам природы чат-ботов, чтобы люди были менее склонны принимать советы ИИ — это основано на прошедшие исследования предполагая, что люди перестают доверять алгоритмическим системам, когда становятся свидетелями ошибок.
«Мы полагаем, что пользователи смогут лучше использовать ChatGPT, если поймут, что у него нет моральных убеждений», — сказал Остермайер. «Это гипотеза, которую мы рассматриваем для дальнейшего тестирования».
Рег считает, что если вы доверяете боту или предполагаете, что за ним стоит какой-то реальный интеллект или самосознание, не стоит. ®
- SEO-контент и PR-распределение. Получите усиление сегодня.
- Платоблокчейн. Интеллект метавселенной Web3. Расширение знаний. Доступ здесь.
- Источник: https://go.theregister.com/feed/www.theregister.com/2023/01/20/chatgpt_morally_corrupting/
- 202
- 7
- 9
- a
- способность
- О нас
- Принять
- приемлемый
- доступ
- Бухгалтерский учет
- Действие
- адрес
- взрослых
- продвижение
- совет
- советник
- адвокат
- влиять на
- Аффилированные
- После
- против
- AI
- Поддержка
- Alexa
- алгоритмический
- Все
- уже
- и
- ответ
- ответы
- кто угодно
- спорить
- Утверждает
- Аргументы
- Искусство
- Юрист
- власть
- осведомленность
- основанный
- за
- не являетесь
- верить
- считает,
- Лучшая
- блокирование
- Бот
- МОСТ
- Пропускная способность
- сложные
- Chatbot
- chatbots
- ChatGPT
- Дети
- Очистить
- коллеги
- как
- коммерческая
- обычно
- сравненный
- Компас
- Беспокойство
- вывод
- догадка
- связь
- Рассматривать
- содержание
- диалоговый
- Цена
- "Курс"
- В настоящее время
- дал-и
- решение
- Принятие решений
- глубоко
- глубокое обучение
- Спрос
- Дания
- в зависимости
- Развитие
- DID
- Различия
- Вещание
- Интернет
- цифровой
- распределенный
- не
- дело
- Dont
- вниз
- эффект
- или
- достаточно
- и т.д
- этический
- Даже
- эксперимент
- объяснены
- Объясняет
- знакомый
- финансовый
- Найдите
- обнаружение
- Во-первых,
- Flips
- форма
- вперед
- найденный
- от
- финансирование
- далее
- будущее
- генерируется
- генератор
- Germany
- получить
- данный
- дает
- Google Поиск
- вредный
- Хеджированный
- С надеждой
- Как
- Однако
- HTTPS
- человек
- аморальный
- последствия
- in
- наклонены
- включают
- повышение
- повлиять
- учреждения
- Интеллекта
- интерес
- IT
- итерация
- Дети
- Убийство
- Знать
- известный
- лаборатория
- маркировка
- труд
- Отсутствие
- язык
- последний
- вести
- изучение
- Вероятно
- грамотность
- грамотный
- серия
- Большинство
- сделать
- ДЕЛАЕТ
- Создание
- против
- ошибки
- недоверие
- модель
- Модели
- монитор
- БОЛЕЕ
- перемещение
- природа
- отрицательный
- Ноябрь
- номер
- Очевидный
- предлагают
- ONE
- OpenAI
- Другое
- бумага & картон
- родители
- новыми участниками
- особый
- Люди
- возможно
- разрешение
- человек
- личного
- план
- Платон
- Платон Интеллектуальные данные
- ПлатонДанные
- Точка
- Популярное
- должность
- преждевременный
- представлены
- в первую очередь
- Проблема
- проблемам
- Профессор
- предложило
- что такое варган?
- Push
- вопрос
- Вопросы
- поднятый
- случайный
- хаотичность
- реальные
- недавно
- признанный
- рекомендовать
- Редж
- Несмотря на
- выпустил
- обязательный
- исследованиям
- исследователи
- жители
- ответ
- Возвращает
- рисках,
- маршруты
- жертвовать
- пожертвовав
- безопасный
- Сказал
- то же
- Сохранить
- Поиск
- Во-вторых
- Искать
- набор
- несколько
- должен
- показывать
- сторона
- So
- Соцсети
- социальные последствия
- Software
- некоторые
- Источник
- Источники
- южный
- стабильный
- стандарт
- По-прежнему
- Stop
- незнакомец
- Кабинет
- такие
- надзор
- поставка
- поддержка
- Опрос
- восприимчивый
- Коммутатор
- система
- системы
- Говорить
- тестXNUMX
- Тестирование
- Ассоциация
- Источник
- их
- в
- слишком
- трек
- Обучение
- Запись
- Прозрачность
- правда
- Доверие
- под
- понимать
- Университет
- us
- использование
- пользователей
- Ve
- с помощью
- предупреждает
- веб-сайты
- Что
- будь то
- который
- в то время как
- КТО
- будете
- Готовность
- мудрость
- без
- Свидетель
- Работа
- бы
- письмо
- Ты
- ВАШЕ
- зефирнет