ChatGPT замінює людей у ​​дослідженнях людської поведінки — і він працює напрочуд добре

ChatGPT замінює людей у ​​дослідженнях людської поведінки — і він працює напрочуд добре

ChatGPT замінює людей у ​​дослідженнях людської поведінки — і він працює напрочуд добре PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Я великий шанувальник подорожей Ентоні Бурдена Частини невідомі. У кожному епізоді шеф-кухар відвідує віддалені села по всьому світу, документуючи життя, їжу та культуру місцевих племен з відкритим серцем і розумом.

Шоу дозволяє зазирнути в дивовижне розмаїття людства. Соціологи мають схожу мету — зрозуміти поведінку різних людей, груп і культур, — але використовують різноманітні методи в контрольованих ситуаціях. Для обох зірками цих пошуків є суб’єкти: люди.

Але що, якби ви замінили людей чат-ботами зі штучним інтелектом?

Ідея звучить абсурдно. Проте завдяки появі ChatGPT та інших великих мовних моделей (LLM) соціологи заграють з ідеєю використовувати ці інструменти для швидкого створення різноманітних груп «імітованих людей» і проведення експериментів, щоб перевірити їх поведінку та цінності як проксі їхні біологічні аналоги.

Якщо ви уявляєте собі цифровий відтворений людський розум, це не те. Ідея полягає в тому, щоб скористатися досвідом ChatGPT щодо імітації людських реакцій. Оскільки моделі збирають величезну кількість онлайн-даних — блоги, коментарі на Youtube, фанфіки, книги — вони легко вловлюють зв’язки між словами багатьма мовами. Ці складні алгоритми також можуть розшифровувати нюанси мови, такі як іронія, сарказм, метафори та емоційні тони, критичний аспект людського спілкування в кожній культурі. Ці сильні сторони налаштовують LLM на імітацію кількох синтетичних особистостей із широким діапазоном переконань.

Ще один бонус? Порівняно з людьми-учасниками, ChatGPT та інші LLM не втомлюються, дозволяючи вченим збирати дані та перевіряти теорії про людську поведінку з безпрецедентною швидкістю.

Ідея, хоч і суперечлива, але вже має підтримку. Нещодавня стаття Перегляд поля, що зароджується, виявив, що в певних ретельно розроблених сценаріях відповіді ChatGPT корелювали з відповідями приблизно 95 відсотків учасників-людей.

ШІ «може змінити гру для соціальних наукових досліджень», сказав Доктор Ігор Гроссман з Університету Ватерлоо, який разом із колегами нещодавно написав статтю про перспективу в наука. Ключ для використання Homo silicus в дослідженнях? Ретельне управління упередженням і точність даних, сказала команда.

Дослідження людського суспільного розуму

Що таке соціальна наука?

Простіше кажучи, це вивчення того, як люди — як окремі особи чи як група — поводяться за різних обставин, як вони взаємодіють один з одним і розвиваються як культура. Це парасолька академічного пошуку з кількома галузями: економіка, політологія, антропологія та психологія.

Дисципліна розглядає широкий спектр тем, що є значущими в поточному духу часу. Який вплив соціальних мереж на психічне здоров’я? Яке зараз ставлення громадськості до зміни клімату в міру збільшення епізодів суворої погоди? Як різні культури цінують методи спілкування і що викликає непорозуміння?

Соціологічне дослідження починається із запитання та гіпотези. Одне з моїх улюблених: чи культури по-різному сприймають запах тіла? (Без жартів, Тема вивчено зовсім небагато, і так, є різниця!)

Потім вчені використовують різноманітні методи, як-от анкети, поведінкові тести, спостереження та моделювання, щоб перевірити свої ідеї. Опитування є особливо популярним інструментом, тому що питання можуть бути строго розроблені та перевірені та легко охопити широке коло людей, якщо розповсюджувати їх онлайн. Потім вчені аналізують письмові відповіді та дають зрозуміти поведінку людей. Іншими словами, використання мови учасником є ​​критичним для цих досліджень.

Отже, як ChatGPT підходить?

«Homo Silicus»

Для Гроссмана магістерські програми, що стоять за такими чат-ботами, як ChatGPT або Google Bard, представляють безпрецедентну можливість переробити експерименти з соціальних наук.

Оскільки вони навчаються на величезних наборах даних, LLM «можуть представляти широкий спектр людського досвіду та перспектив», — кажуть автори. Оскільки моделі вільно «кочують» без кордонів по Інтернету, як люди, які часто подорожують за кордон, вони можуть приймати та демонструвати ширший діапазон відповідей порівняно з залученими людьми.

ChatGPT також не піддається впливу інших учасників дослідження та не втомлюється, що потенційно дозволяє йому генерувати менш упереджені відповіді. Ці риси можуть бути особливо корисні в «проектах високого ризику» — наприклад, імітація відповідей людей, які живуть у країнах, у яких ведеться війна, або під складними режимами, через дописи в соціальних мережах. У свою чергу, відповіді можуть інформувати про втручання в реальному світі.

Подібним чином магістри права, які пройшли підготовку з культурних гарячих тем, таких як гендерна ідентичність або дезінформація, можуть відтворювати різні теоретичні чи ідеологічні школи думки для формування політики. Замість ретельного опитування сотень тисяч учасників-людей ШІ може швидко генерувати відповіді на основі онлайн-дискурсу.

Окрім можливого використання в реальному житті, LLM також можуть діяти як цифрові суб’єкти, які взаємодіють із людьми, учасниками соціальних наукових експериментів, дещо подібно до неігрових персонажів (NPC) у відеоіграх. Наприклад, магістр права може прийняти різні «особистості» та взаємодіяти з людьми-волонтерами по всьому світу онлайн, використовуючи текст, ставлячи їм те саме запитання. Оскільки алгоритми не сплять, він може працювати 24/7. Отримані дані можуть потім допомогти вченим дослідити, як різні культури оцінюють подібну інформацію та як поширюються думки та дезінформація.

Baby Steps

Ідея використання чат-ботів замість людей у ​​дослідженнях ще не є основною.

Але є перші докази того, що це може спрацювати. А допринтне дослідження опублікований цього місяця від Georgia Tech, Microsoft Research і Olin College, виявив, що LLM відтворює людські реакції в численних класичних психологічних експериментах, у тому числі сумнозвісному Шокові експерименти Мілграма.

Але залишається критичне питання: наскільки добре ці моделі справді можуть відобразити реакцію людини?

Є кілька каменів спотикання.

По-перше, це якість алгоритму та навчальних даних. У більшості онлайн-контенту домінує лише кілька мов. Магістр права, який навчався на цих даних, може легко імітувати настрої, погляди чи навіть моральне судження людей, які використовують ці мови, у свою чергу успадковуючи упередженість від навчальних даних.

«Це упереджене відтворення викликає серйозне занепокоєння, оскільки воно може посилити ті розбіжності, які соціологи прагнуть виявити у своїх дослідженнях», — сказав Гроссман.

Деякі вчені також стурбовані тим, що магістратури є справедливими зригування що їм сказали. Це антипод соціального наукового дослідження, головна мета якого — охопити людство у всій його різноманітній і складній красі. З іншого боку, ChatGPT і подібні моделі, як відомо, "галюцинація”, вигадуючи інформацію, яка звучить правдоподібно, але є неправдивою.

Наразі «великі мовні моделі покладаються на «тіні» людського досвіду», — сказав Гроссман. Оскільки ці системи штучного інтелекту здебільшого є чорними скриньками, важко зрозуміти, як і чому вони генерують певні відповіді — дещо тривожно, якщо використовувати їх як проксі-людей у ​​поведінкових експериментах.

Незважаючи на обмеження, «LLM дозволяють соціологам відійти від традиційних методів дослідження та підійти до своєї роботи інноваційними способами», — кажуть автори. Як перший крок, Homo silicus може допомогти провести мозковий штурм і швидко перевірити гіпотези, а багатообіцяючі з них будуть перевірені на людях.

Але для того, щоб соціальні науки дійсно вітали ШІ, потрібна буде прозорість, справедливість і рівний доступ до цих потужних систем. Навчання LLM складно і дорого, оскільки новітні моделі все частіше закриваються за солідними системами оплати.

«Ми повинні гарантувати, що LLM із соціальних наук, як і всі наукові моделі, мають відкритий вихідний код, тобто їхні алгоритми та, в ідеалі, дані, доступні для всіх для ретельного вивчення, тестування та модифікації», сказав автор дослідження доктор Доун Паркер з Університету Ватерлоо. «Тільки зберігаючи прозорість і здатність відтворюватися, ми можемо гарантувати, що соціальні наукові дослідження за допомогою штучного інтелекту справді сприятимуть нашому розумінню людського досвіду».

Зображення Фото: Герд АльтманPixabay

Часова мітка:

Більше від Хаб сингулярності