Google предупреждает, что у пользователей ИИ-помощников может возникнуть «эмоциональная привязанность» — расшифровать

Google предупреждает, что у пользователей ИИ-помощников может возникнуть «эмоциональная привязанность» – расшифровать

У пользователей ИИ-помощников может развиться «эмоциональная привязанность» к ним, предупреждает Google — Расшифруйте данные PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Виртуальные персональные помощники на базе искусственного интеллекта становятся повсеместными на технологических платформах, причем каждая крупная технологическая фирма добавление ИИ к их услугам и десяткам специализированные услуги падаю на рынок. Хотя это чрезвычайно полезно, исследователи из Google говорят, что люди могут стать слишком эмоционально привязанными к ним, что приведет к множеству негативных социальных последствий.

Новая статья про исследование из исследовательской лаборатории искусственного интеллекта DeepMind компании Google подчеркивает потенциальные преимущества передовых персонализированных помощников искусственного интеллекта для преобразования различных аспектов жизни общества, заявляя, что они «могут радикально изменить характер работы, образования и творческих занятий, а также то, как мы общаемся, координируем действия и ведем переговоры». друг с другом, в конечном итоге влияя на то, кем мы хотим быть и кем мы хотим стать».

Это огромное влияние, конечно, может оказаться палкой о двух концах, если развитие ИИ продолжит ускоряться без тщательного планирования.

Один ключевой риск? Формирование неадекватно тесных связей, которые могут усугубиться, если ассистенту представить человеческое изображение или лицо. «Эти искусственные агенты могут даже заявлять о своей предполагаемой платонической или романтической привязанности к пользователю, закладывая основу для формирования у пользователей давней эмоциональной привязанности к ИИ», — говорится в документе.

Если оставить это без контроля, такая привязанность может привести к потере автономии пользователя и потере социальных связей, поскольку ИИ может заменить человеческое взаимодействие.

Этот риск не является чисто теоретическим. Даже когда ИИ находился в несколько примитивном состоянии, чат-бот с ИИ был достаточно влиятельным, чтобы убедить пользователя покончить жизнь самоубийством после долгого разговора в 2023 году. Восемь лет назад помощник по электронной почте с искусственным интеллектом по имени «Эми Ингрэм» был достаточно реалистичен, чтобы побудить некоторых пользователей отправлять любовные записки и даже попытаться навестить ее на работе.

Ясон Габриэль, научный сотрудник исследовательской группы по этике DeepMind и соавтор статьи, не ответил на Расшифровать-х запрос на комментарий.

Однако в своем твите Гарбриэль предупредил, что «все более личные и человекоподобные формы помощников ставят новые вопросы, касающиеся антропоморфизма, конфиденциальности, доверия и соответствующих отношений с ИИ».

Поскольку «миллионы ИИ-помощников могут быть развернуты на уровне общества, где они будут взаимодействовать друг с другом и с людьми, не являющимися пользователями», Габриэль сказал, что верит в необходимость дополнительных мер защиты и более целостного подхода к этому новому социальному явлению.

В исследовательской статье также обсуждается важность согласования ценностей, безопасности и неправильного использования при разработке помощников ИИ. Несмотря на то, что ИИ-помощники могут помочь пользователям улучшить свое благосостояние, повысить творческий потенциал и оптимизировать свое время, авторы предупреждают о дополнительных рисках, таких как несоответствие интересам пользователя и общества, навязывание ценностей другим, использование в злонамеренных целях и уязвимость. к состязательным атакам.

Чтобы устранить эти риски, команда DeepMind рекомендует разработать комплексные оценки для ИИ-помощников и ускорить разработку социально полезных ИИ-помощников.

«В настоящее время мы стоим в начале эры технологических и социальных перемен. Таким образом, у нас есть возможность действовать уже сейчас — как разработчики, исследователи, политики и общественные заинтересованные стороны — чтобы сформировать тех помощников ИИ, которых мы хотим видеть в мире».

Несогласованность ИИ можно смягчить с помощью обучения с подкреплением через обратную связь с человеком (RLHF), которое используется для обучения моделей ИИ. Такие эксперты, как Пол Кристиано, который руководил командой по согласованию языковых моделей в OpenAI, а сейчас возглавляет некоммерческий исследовательский центр выравнивания, предупреждают, что неправильное управление методами обучения ИИ может закончиться катастрофой.

«Я думаю, что вероятность захвата власти ИИ составляет около 10–20%, [при] том, что многие [или] большинство людей погибнут», — Пол Кристиано. — сказал на подкасте Bankless в прошлом году. «Я отношусь к этому совершенно серьезно».

Под редакцией Райан Одзава.

Будьте в курсе крипто-новостей, получайте ежедневные обновления на свой почтовый ящик.

Отметка времени:

Больше от Decrypt