Далее, белки, разработанные искусственным интеллектом для медицины

Далее, белки, разработанные искусственным интеллектом для медицины

Далее: белки, созданные с помощью искусственного интеллекта для медицины. Платоблокчейн-аналитика данных. Вертикальный поиск. Ай.

Организация психического здоровья Koko успешно использовала ChatGPT, чтобы помочь им улучшить свою онлайн-поддержку, но когда пользователи узнали, что чат-бот является соавтором ответов, предполагаемые преимущества исчезли.

Восприятие эксперимента в социальных сетях было неоднозначным: некоторые люди были очарованы потенциалом ИИ в полевых условиях, а другие решительно выступали против вторжения искусственного интеллекта.

Нет коротких путей к психическому благополучию

Недавний эксперимент Коко, который дополнил человеческие реакции ChatGPT сначала казалось, что он предлагает значительные преимущества для своих пользователей.

Koko — некоммерческая организация по охране психического здоровья, предлагающая поддержку и вмешательство всем, кто борется с психическим здоровьем, особенно подросткам. В рамках своей миссии сделать психическое здоровье доступным для всех компания дополнила свои волонтерские ресурсы искусственным интеллектом.

По словам основателя Koko Роба Морриса, суд сначала оказался успешным. Моррис утверждает, что ответы с помощью ИИ изначально воспринимались лучше и помогли сократить время ожидания. К сожалению, преимущества оказались непродолжительными.

«Как только люди узнали, что сообщения были созданы машиной, это не сработало. Имитация эмпатии кажется странной, пустой», — написал Моррис в Twitter. на прошлой неделе. «Машины не жили, человеческий опыт, поэтому, когда они говорят «это звучит тяжело» или «я понимаю», это звучит неправдоподобно».

В конце концов Моррис пришел к выводу, что чат-боты «не тратят время в течение дня, чтобы подумать о вас. Ответ чат-бота, сгенерированный за 3 секунды, каким бы элегантным он ни был, почему-то кажется дешевым».

Интеграция ChatGPT в Koko является частью давнего партнерства, начавшегося в июне 2020 года, когда ChatGPT помогает помощникам отвечать на более чем 30,000 XNUMX сообщений.

Смешанный ответ

Идея вмешательства в психическое здоровье с помощью ИИ была встречена в социальных сетях с всеобщим восхищением и небольшой, но ощутимой долей ужаса.

Многие люди обиделись на заявление Морриса о том, что ИИ «звучит неискренне», когда сочувствует людям.

Как пользователь Twitter ActualStryder отметил,, «Это не звучит неправдоподобно, это НЕ аутентично. Весь разговор — это оптимизированная мимика».

Те же или похожие чувства разделялись многими. Другие выражали шок или отвращение и в первую очередь ставили под сомнение этичность такого эксперимента.

Однако не все были так потрясены. ГиенаМама сравнил достоверность с обеспечением психического здоровья в рамках Национальной службы здравоохранения Великобритании (NHS): «Это казалось недостоверным, когда я исходил также от моих практикующих психиатров NHS… Я возьму GPT на себя в любое время».

Что касается того факта, что чат-боты не имеют жизненного опыта, добавила она, «терапевты, особенно психиатры и психологи, возможно, тоже не имели жизненного опыта».

Жажда любой компании вообще

Немедленная реакция на эксперимент Коко, кажется, предполагает, что человечество вполне готово к искусственной эмпатии, но может ли это измениться со временем?

Как спрашивает сам Моррис: «Могут ли машины решить эту [проблему]? Вероятно."

Моррис продолжает: «Может быть, мы так отчаянно хотим быть услышанными, чтобы кто-то действительно обращал на нас внимание, не отвлекаясь, не глядя в телефон, не проверяя слабину, электронную почту или твиттер — может быть, мы так сильно жаждем этого, что мы убедить себя, что машины действительно заботятся о нас».

Уточнения вызывают дополнительную путаницу

Моррис отреагировал на негативную реакцию на недавний эксперимент Коку, стремясь подавить резкую критику, с которой организация столкнулась с некоторых сторон.

К сожалению, это разъяснение, кажется, только еще больше запутывает.

Теперь Моррис заявляет, что все пользователи знали, что ответы были созданы с помощью искусственного интеллекта, и что никто из ищущих помощи никогда не общался напрямую с ИИ.

«Эта функция была активирована», — сказал Моррис, прежде чем еще раз замутить воду, добавив. «Все знали об этой функции, когда она была доступна в течение нескольких дней».

Независимо от того, знали ли пользователи об этой функции с самого начала или нет, последствия эксперимента доказывают, что при использовании технологии ИИ в существующих сервисах следует избегать ощутимых ловушек.

Отметка времени:

Больше от МетаНьюс