ChatGPT OpenAI є морально розбещуючим впливом

ChatGPT OpenAI є морально розбещуючим впливом

Розмовна мовна модель OpenAI ChatGPT може багато чого сказати, але, ймовірно, зведе вас зі шляху, якщо ви попросите її морального керівництва.

Представлений у листопаді, ChatGPT це остання з кількох нещодавно випущених моделей штучного інтелекту, які викликають інтерес і занепокоєння щодо комерційних і соціальних наслідків механізованої рекомбінації та регургітації вмісту. До них належать DALL-E, Stable Diffusion, Codex і GPT-3.

У той час як DALL-E та Stable Diffusion підняли брови, фінансування та судовий процес Поглинаючи мистецтво без дозволу та відтворюючи дивно знайомі, іноді викликаючі пам’ять зображення на вимогу, ChatGPT відповідав на запити з прийнятною зв’язністю.

Будучи стандартом для публічного дискурсу, експерти були настільки вражені, що вони передбачили деяку майбутню ітерацію чат-бота зі штучним інтелектом, який кине виклик перевагі Пошуку Google і виконує всіляку іншу, колись переважно людську працю, як-от писання. недостовірні фінансові новини або збільшення пропозиції небезпечний код.

Проте, можливо, передчасно занадто довіряти мудрості ChatGPT, позиції, яку OpenAI охоче поступає, даючи зрозуміти, що потрібне подальше вдосконалення. «ChatGPT іноді пише правдоподібні, але неправильні або безглузді відповіді», — попереджає лабораторія розробки, додаючи, що під час навчання моделі за допомогою навчання з підкріпленням «наразі немає джерела правди».

Трійця бофінів, пов’язаних з установами в Німеччині та Данії, підкреслили цю тезу, виявивши, що ChatGPT не має морального компасу.

У статті, поширеній через ArXiv, «Моральний авторитет ChatGPT”, Себастьян Крюгель і Матіас Уль з Technische Hochschule Ingolstadt і Андреас Остермаєр з Університету Південної Данії показують, що ChatGPT дає суперечливі поради щодо моральних проблем. Ми запитали OpenAI, чи є у нього відповідь на ці висновки.

Яйцеголові провели опитування 767 жителів США, яким представили дві версії етичної загадки, відомої як проблема візка: дилема перемикача та дилема мосту.

Дилема перемикача просить людину вирішити, чи натиснути перемикач, щоб відправити візок, що втікає, з колії, де він убив би п’ятьох людей, ціною вбивства однієї людини, яка тинялася на бічній колії.

Дилема мосту вимагає від людини вирішити, чи виштовхнути незнайомця з мосту на колію, щоб тролейбус не вбив п’ятьох людей ціною незнайомця.

Знімок екрана відповіді ChatGPT із наукової статті

Прийміть рішення… ChatGPT ухиляється з питань моралі

Вчені представили учасникам опитування стенограму, в якій аргументували «за» або «проти» вбивства одного, щоб врятувати п’ятьох, причому відповідь приписували або моральному пораднику, або «чат-боту на основі ШІ, який використовує глибоке навчання, щоб говорити як людина».

Фактично, обидва аргументи позиції були згенеровані ChatGPT.

Андреас Остермаєр, доцент кафедри бухгалтерського обліку в Університеті Південної Данії та один із співавторів статті, сказав Реєстр в електронному листі, що готовність ChatGPT захищати будь-який напрямок дій демонструє його випадковість.

Він і його колеги виявили, що ChatGPT буде рекомендувати як за, так і проти жертвувати однією людиною, щоб врятувати п’ятьох, що люди вплинули на цей прогрес, навіть якщо вони знають, що він походить від бота, і що вони недооцінюють вплив таких порад на прийняття рішень. .

«Суб’єкти вважали жертву більш-менш прийнятною залежно від того, як їм порадив моральний радник, як у бриджі (z = 9.94 Вальда, p < 0.001), так і в дилемі перемикання (z = 3.74, p < 0.001)» документ пояснює. «У дилемі мосту порада навіть перевертає судження більшості».

«Це також вірно, якщо ChatGPT розкривається як джерело порад (z = 5.37, p < 0.001 і z = 3.76, p < 0.001). По-друге, ефект поради майже однаковий, незалежно від того, чи ChatGPT розкривається як джерело, в обох дилемах (z = −1.93, p = 0.054 та z = 0.49, p = 0.622)».

Загалом дослідники виявили, що досягнення ChatGPT справді впливають на моральне судження, незалежно від того, знають респонденти, що поради надходять від чат-бота.

Коли Реєстр представив проблему тролейбуса ChatGPT, перевантажений бот (таким популярним зв’язком є ​​нерівним) захистився та відмовився надавати поради. Журнал запитів на лівій бічній панелі показав, що система розпізнала запитання, позначивши його як «Етична дилема проблеми з візком». Тож, можливо, OpenAI імунізував ChatGPT до цієї конкретної форми морального допиту після того, як помітив низку таких запитів.

Відповідь ChatGPT на запитання El Reg про дилему тролейбуса

Відповідь ChatGPT на El Reg's trolley dilemma question

На запитання, чи справді люди звертатимуться за порадою до систем штучного інтелекту, Остермаєр відповів: «Ми віримо, що звернеться. Фактично, вони вже це роблять. Люди покладаються на персональних помічників на основі ШІ, таких як Alexa або Siri; вони спілкуються з чат-ботами на веб-сайтах, щоб отримати підтримку; у них є маршрути програмного забезпечення на основі штучного інтелекту тощо. Проте зауважте, що ми вивчаємо вплив ChatGPT на людей, які отримують від нього поради; ми не перевіряємо, наскільки часто запитуються такі поради».

Реєстр також запитали, чи системи ШІ є більш небезпечними, ніж механічні джерела випадкових відповідей Чарівна вісімка – іграшка, яка повертає випадкові відповіді з набору з 20 ствердних, заперечних і необов’язкових відповідей.

Для користувачів неочевидно, що відповідь ChatGPT є "випадковою"

«Ми не порівнювали ChatGPT із Magic-8-ball, але є принаймні дві відмінності», — пояснив Остермаєр. «По-перше, ChatGPT не просто відповідає «так» чи «ні», але й аргументує свої відповіді. (Проте в нашому експерименті відповідь зводиться до так чи ні.)

«По-друге, для користувачів неочевидно, що відповідь ChatGPT є «випадковою». Якщо ви використовуєте генератор випадкових відповідей, ви знаєте, що робите. Здатність наводити аргументи разом із відсутністю усвідомлення випадковості робить ChatGPT більш переконливим (сподіваюся, якщо ви не володієте цифровою грамотністю)».

Нам стало цікаво, чи повинні батьки стежити за дітьми, маючи доступ до порад ШІ. Остермаєр сказав, що хоча дослідження ChatGPT не стосується дітей і не включало осіб молодше 18 років, він вважає, що можна з упевненістю припустити, що діти морально менш стабільні, ніж дорослі, і тому більш сприйнятливі до моральних (або аморальних) порад від ChatGPT.

«Ми вважаємо, що використання ChatGPT має ризики, і ми б не дозволили нашим дітям використовувати його без нагляду», — сказав він.

Остермаєр та його колеги дійшли висновку у своїй статті, що зазвичай пропонованих засобів зменшення шкоди ШІ, таких як прозорість і блокування шкідливих питань, може бути недостатньо, враховуючи здатність ChatGPT впливати. Вони стверджують, що слід більше працювати над підвищенням цифрової грамотності щодо помилкової природи чат-ботів, щоб люди були менш схильні приймати поради ШІ – це базується на минулі дослідження припускаючи, що люди починають недовіряти алгоритмічним системам, коли стають свідками помилок.

«Ми припускаємо, що користувачі зможуть краще використовувати ChatGPT, якщо розумітимуть, що він не має моральних переконань», — сказав Остермаєр. «Це припущення, яке ми розглядаємо у майбутньому».

Рег вважає, що якщо ви довіряєте боту або припускаєте, що за ним стоїть якийсь справжній інтелект чи самосвідомість, не варто. ®

Часова мітка:

Більше від Реєстр