Виявляється, людям не подобається, коли вони підозрюють, що з ними розмовляє машина

Виявляється, людям не подобається, коли вони підозрюють, що з ними розмовляє машина

Виявляється, людям не подобається, коли вони підозрюють, що машина спілкується з ними PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Можливо, використання технології штучного інтелекту стане в нагоді під час спілкування в чаті, але це останнє дослідження показує, що люди будуть менше думати про тих, хто використовує такі інструменти.

Ось як закінчилося дослідження під керівництвом співробітників американського Корнельського університету. Команда набрала учасників і розділила їх на 219 пар. Потім цих випробуваних попросили обговорити питання політики через текстові повідомлення. Для деяких пар обом учасникам у кожній парі було сказано використовувати лише пропозиції від Google Смарт Відповідь, який слідкує за темою розмови та рекомендує, що сказати. Деяким парам було сказано взагалі не використовувати інструмент, а для інших пар одному учаснику в кожній парі було сказано використовувати Smart Reply.

Таким чином, кожне сьоме повідомлення було надіслано з використанням автоматично створеного тексту в експерименті, і це зробило розмови більш ефективними та з позитивним тоном. Але якщо учасники вважали, що людина, з якою вони розмовляли, відповідала типовими відповідями, вони вважали, що вони менш співпрацюють і ставляться до них менш тепло. 

Люди можуть проектувати свої негативні погляди на ШІ на людину, яку вони підозрюють, що його використовує

Малте Юнг, співавтор дослідження опублікований у Scientific Reports та доцент кафедри інформатики Корнельського університету сказав, що це може бути тому, що люди схильні довіряти технологіям менше, ніж інші люди, або сприймають їх використання в розмовах як неавтентичне. 

«Одне пояснення полягає в тому, що люди можуть проектувати свої негативні погляди на ШІ на людину, яку вони підозрюють, що використовує його», — сказав він. Реєстр.

«Іншим поясненням може бути те, що підозра в тому, що хтось використовує штучний інтелект для генерування своїх відповідей, може сприймати цю людину як менш турботливу, щиру чи автентичну. Наприклад, вірш від коханого сприймають менш тепло, якщо цей вірш було згенеровано ChatGPT».

У другому експерименті 291 пару людей попросили знову обговорити питання політики. Цього разу, однак, вони були розділені на групи, які мали вручну вводити власні відповіді, або вони могли використовувати розумну відповідь Google за замовчуванням, або мали доступ до інструменту, який генерував текст із позитивним або негативним тоном. 

Розмови, які велися за допомогою інтелектуальної відповіді Google або інструменту, який генерував позитивний текст, сприймалися більш оптимістично, ніж ті, у яких не використовувалися інструменти штучного інтелекту або відповідали автоматично згенерованими негативними відповідями. Дослідники вважають, що це показує, що комунікація за допомогою штучного інтелекту має певні переваги в певних ситуаціях, наприклад у більш транзакційних або професійних сценаріях.

«Ми попросили краудворкерів обговорити політику щодо несправедливої ​​відмови в роботі. У такому контексті, пов’язаному з роботою, більш доброзичливий позитивний тон має в основному позитивні наслідки, оскільки позитивна мова зближує людей один з одним», – сказав нам Юнг.

«Однак в іншому контексті та сама мова може мати інший і навіть негативний вплив. Наприклад, людина, яка ділиться сумною новиною про смерть члена сім’ї, може не оцінити веселої та щасливої ​​відповіді та, ймовірно, її відлякне. Іншими словами, те, що означають «позитивне» і «негативне», різко залежить від контексту».

Людське спілкування формуватиме ШІ, оскільки технологія стає дедалі доступнішою. Microsoft і Google, наприклад, анонсували інструменти, спрямовані на те, щоб допомогти користувачам автоматично писати електронні листи або документи.

«Хоча штучний інтелект може допомогти вам писати, він змінює вашу мову таким чином, чого ви не очікуєте, особливо завдяки тому, що ви звучите більш позитивно. Це свідчить про те, що, використовуючи штучний інтелект, що генерує текст, ви жертвуєте частиною свого особистого голосу», – Джесс Гохенштайн, провідний автор дослідження та науковий співробітник Корнельського університету, попередили цього місяця.  

Гогенштайн сказала нам, що вона «хотіла б бачити більше прозорості навколо цих інструментів», яка включає певний спосіб розголошувати, коли люди ними користуються. «Здійснення кроків у напрямку більшої відкритості та прозорості навколо магістрів права потенційно може допомогти послабити загальну підозру, яку ми спостерігали щодо ШІ». ®

Часова мітка:

Більше від Реєстр