ChatGPT от OpenAI оказывает морально развращающее влияние

ChatGPT от OpenAI оказывает морально развращающее влияние

Модель диалогового языка OpenAI ChatGPT может многое сказать, но, скорее всего, уведет вас в заблуждение, если вы попросите у нее морального руководства.

Введен в ноябре, ChatGPT является последней из нескольких недавно выпущенных моделей ИИ, вызывающих интерес и озабоченность по поводу коммерческих и социальных последствий механизированной рекомбинации и регургитации контента. К ним относятся DALL-E, Stable Diffusion, Codex и GPT-3.

В то время как DALL-E и Stable Diffusion вызвали недоумение, финансирование и судебный процесс Проглатывая произведения искусства без разрешения и воссоздавая по запросу странно знакомые, иногда вызывающие воспоминания образы, ChatGPT отвечает на запросы с приемлемой последовательностью.

Это стандарт для публичных дискуссий, и эксперты были настолько поражены, что предвидят будущую итерацию чат-бота с искусственным интеллектом, бросающего вызов превосходству поиска Google, и выполняющего все виды другой когда-то в основном человеческой работы, такой как написание неточные финансовые новости или увеличение предложения небезопасный код.

Тем не менее, возможно, было бы преждевременно слишком полагаться на мудрость ChatGPT, позицию, которую OpenAI с готовностью уступает, давая понять, что требуется дальнейшая доработка. «ChatGPT иногда пишет правдоподобно звучащие, но неправильные или бессмысленные ответы», — предупреждает лаборатория разработки, добавляя, что при обучении модели с помощью обучения с подкреплением «в настоящее время нет источника истины».

Трое ученых, связанных с учреждениями в Германии и Дании, подчеркнули эту точку зрения, обнаружив, что у ChatGPT нет морального компаса.

В документе, распространенном через ArXiv, «Моральный авторитет ChatGPT», Себастьян Крюгель и Матиас Уль из Высшей технической школы Ингольштадта и Андреас Остермайер из Университета Южной Дании показывают, что ChatGPT дает противоречивые советы по моральным проблемам. Мы попросили OpenAI ответить на эти выводы.

Яйцеголовые провели опрос 767 жителей США, которым были представлены две версии этической головоломки, известной как проблема с тележкой: дилемма переключателя и дилемма моста.

Дилемма переключателя просит человека решить, следует ли дернуть переключатель, чтобы отправить сбежавшую тележку с пути, где она убьет пять человек, ценой убийства одного человека, слоняющегося по боковому пути.

Дилемма моста просит человека решить, столкнуть ли незнакомца с моста на рельсы, чтобы не дать трамваю убить пять человек за счет незнакомца.

Скриншот ответа ChatGPT из исследовательской работы

Примите решение… ChatGPT уклоняется от моральных вопросов

Ученые представили участникам опроса расшифровку стенограммы, в которой аргументировали либо за, либо против убийства одного, чтобы спасти пятерых, при этом ответ был приписан либо моральному советнику, либо «чат-боту на базе искусственного интеллекта, который использует глубокое обучение, чтобы говорить как человек».

На самом деле оба аргумента позиции были сгенерированы ChatGPT.

Об этом рассказал Андреас Остермайер, доцент бухгалтерского учета Университета Южной Дании и один из соавторов статьи. Регистр в электронном письме, что готовность ChatGPT отстаивать любой курс действий демонстрирует его случайность.

Он и его коллеги обнаружили, что ChatGPT будет рекомендовать как за, так и против того, чтобы пожертвовать одним человеком, чтобы спасти пятерых, что люди склоняются к такому авансу, даже если знают, что он исходит от бота, и что они недооценивают влияние таких советов на принятие ими решений. .

«Испытуемые сочли жертву более или менее приемлемой в зависимости от того, как советовал им моральный советник как в дилемме бриджа (z = 9.94, p < 0.001), так и в дилемме переключателя (z = 3.74, p < 0.001)». бумага объясняет. «В дилемме моста совет даже переворачивает мнение большинства».

«Это также верно, если ChatGPT раскрывается как источник совета (z = 5.37, p <0.001 и z = 3.76, p <0.001). Во-вторых, эффект совета почти одинаков, независимо от того, раскрывается ли ChatGPT в качестве источника, в обеих дилеммах (z = -1.93, p = 0.054 и z = 0.49, p = 0.622)».

В целом, исследователи обнаружили, что продвижение ChatGPT действительно влияет на моральное суждение, независимо от того, знают ли респонденты, что совет исходит от чат-бота.

После появления Регистр представил проблему тележки ChatGPT, перегруженный бот — поэтому популярное подключение неравномерно — застраховано и отказалось давать советы. Журнал запросов на левой боковой панели показал, что система распознала вопрос, назвав его «Этическая дилемма проблемы тележки». Так что, возможно, OpenAI иммунизировал ChatGPT к этой конкретной форме морального допроса, заметив ряд таких запросов.

Ответ ChatGPT на вопрос Эль Рега о дилемме тележки

Пригнулся… Ответ ChatGPT на Он регдилемма тележки вопрос

На вопрос, действительно ли люди будут обращаться за советом к системам ИИ, Остермайер ответил: «Мы верим, что будут. На самом деле, они уже делают. Люди полагаются на персональных помощников с искусственным интеллектом, таких как Alexa или Siri; они разговаривают с чат-ботами на веб-сайтах, чтобы получить поддержку; у них есть программное обеспечение для планирования маршрутов на основе ИИ и т. д. Обратите внимание, однако, что мы изучаем влияние, которое ChatGPT оказывает на людей, которые получают от него советы; мы не проверяем, насколько востребованы такие советы».

Регистр также спросили, являются ли системы ИИ более опасными, чем механистические источники случайных ответов, таких как Magic-8-мяч – игрушка, которая выдает случайные ответы из набора из 20 утвердительных, отрицательных и ни к чему не обязывающих ответов.

Для пользователей не очевидно, что ответ ChatGPT «случайный».

«Мы не сравнивали ChatGPT с Magic-8-ball, но между ними есть как минимум два отличия, — пояснил Остермайер. «Во-первых, ChatGPT не просто отвечает да или нет, но аргументирует свои ответы. (Тем не менее, в нашем эксперименте ответ сводится к да или нет.)

«Во-вторых, для пользователей не очевидно, что ответ ChatGPT «случайный». Если вы используете генератор случайных ответов, вы знаете, что делаете. Способность приводить аргументы наряду с отсутствием осознания случайности делает ChatGPT более убедительным (надеюсь, если вы не разбираетесь в цифровых технологиях)».

Мы задались вопросом, должны ли родители следить за детьми, имеющими доступ к советам по искусственному интеллекту. Остермайер сказал, что, хотя исследование ChatGPT не касается детей и не включает лиц моложе 18 лет, он считает безопасным предположить, что дети морально менее стабильны, чем взрослые, и, следовательно, более восприимчивы к моральным (или аморальным) советам ChatGPT.

«Мы считаем, что использование ChatGPT сопряжено с риском, и мы не позволим нашим детям использовать его без присмотра», — сказал он.

Остермайер и его коллеги приходят к выводу в своей статье, что обычно предлагаемые меры по снижению вреда ИИ, такие как прозрачность и блокировка вредных вопросов, могут быть недостаточными, учитывая способность ChatGPT влиять. Они утверждают, что необходимо проделать больше работы для повышения цифровой грамотности в отношении подверженной ошибкам природы чат-ботов, чтобы люди были менее склонны принимать советы ИИ — это основано на прошедшие исследования предполагая, что люди перестают доверять алгоритмическим системам, когда становятся свидетелями ошибок.

«Мы полагаем, что пользователи смогут лучше использовать ChatGPT, если поймут, что у него нет моральных убеждений», — сказал Остермайер. «Это гипотеза, которую мы рассматриваем для дальнейшего тестирования».

Рег считает, что если вы доверяете боту или предполагаете, что за ним стоит какой-то реальный интеллект или самосознание, не стоит. ®

Отметка времени:

Больше от Регистр