Далі — білки, розроблені ШІ для медицини

Далі — білки, розроблені ШІ для медицини

Next, AI-Designed Proteins for Medicine PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Організація охорони психічного здоров’я Koko успішно використала ChatGPT, щоб допомогти їм покращити свою онлайн-підтримку, але коли користувачі дізналися, що чат-бот був співавтором відповідей, очікувані переваги зникли.

Сприйняття експерименту в соціальних мережах було неоднозначним: деякі люди були зачаровані потенціалом штучного інтелекту в цій галузі, а інші категорично виступали проти вторгнення штучного інтелекту.

Немає коротких шляхів до психічного благополуччя

Недавній експеримент Коко, який доповнив людські реакції ChatGPT спочатку здавалося, що він пропонує значні переваги своїм користувачам.

Koko – це некомерційна організація психічного здоров’я, яка пропонує підтримку та втручання всім, хто бореться з психічним здоров’ям, але особливо підліткам. У рамках своєї місії зробити психічне здоров’я доступним для кожного компанія розширила свої волонтерські ресурси за допомогою штучного інтелекту.

За словами засновника Koko Роба Морріса, випробування спочатку виявилися успішними. Морріс стверджує, що відповіді за допомогою штучного інтелекту спочатку сприймалися краще та допомогли скоротити час очікування. На жаль, переваги не тривали.

«Як тільки люди дізналися, що повідомлення були створені машиною, це не спрацювало. Імітація емпатії здається дивною, порожньою», — написав Морріс у Twitter минулого тижня. «Машини не мають живого людського досвіду, тому, коли вони говорять «це звучить складно» або «Я розумію», це звучить неавтентично».

Зрештою Морріс дійшов висновку, що чат-боти «не витрачають час на те, щоб думати про вас. Відповідь чат-бота, яка генерується за 3 секунди, якою б елегантною вона не була, здається чомусь дешевою».

Інтеграція ChatGPT into Koko є частиною давнього партнерства, починаючи з червня 2020 року, коли ChatGPT допомагає людям-асистентам відповідати на понад 30,000 XNUMX повідомлень.

Неоднозначна відповідь

Ідея втручання в психічне здоров’я за допомогою ШІ викликала загальне захоплення та невеликий, але відчутний жах у соціальних мережах.

Декілька людей образилися заявою Морріса про те, що штучний інтелект «звучить неавтентично», коли співчуває людям.

Як користувач Twitter ActuallyStryder зазначив,, «Це не «звучить» неавтентично, це ТАКЕ неавтентично. Уся розмова — це оптимізована мімікрія».

Такі ж чи подібні почуття поділяв багато людей. Інші висловлювали шок або огиду та ставили під сумнів етичність такого експерименту.

Однак не всі були настільки вражені. ГієнаМама порівняв автентичність на користь надання послуг з питань психічного здоров’я в рамках Національної служби охорони здоров’я Великобританії (NHS): «Це здавалося неавтентичним, коли я також звертався до моїх психіатричних лікарів NHS… Я будь-коли візьму GPT».

Щодо того факту, що чат-боти не мають реального досвіду, вона додала, що «терапевти, особливо психіатри та психологи, також можуть не мати досвіду».

Жага будь-якої компанії взагалі

Негайна реакція на експеримент Коко, здається, свідчить про те, що людство цілком готове до штучної емпатії, але чи може це змінитися з часом?

Як запитує сам Морріс: «Чи можуть машини подолати цю [проблему]?» Мабуть."

Морріс продовжує: «Можливо, ми так відчайдушно хочемо, щоб нас почули, щоб хтось справді звернув на нас увагу, не відволікаючись, не дивлячись на телефон, не перевіряючи слабину, електронну пошту чи твіттер — можливо, ми так цього прагнемо, що ми переконати себе, що машини дійсно піклуються про нас».

Уточнення викликають подальшу плутанину

Морріс відповів на негативну реакцію нещодавнього експерименту Коку, намагаючись придушити сильну критику, з якою організація зіткнулася з деяких сторін.

На жаль, уточнення, здається, викликає лише подальшу плутанину.

Тепер Морріс стверджує, що всі користувачі знали, що відповіді були створені за допомогою штучного інтелекту, і що ніхто, хто шукав допомоги, ніколи не спілкувався безпосередньо з ШІ.

«Цю функцію було включено» сказав Морріса, перш ніж знову замутити воду, додавши. «Усі знали про цю функцію, коли вона була активна протягом кількох днів».

Незалежно від того, знали користувачі про цю функцію з самого початку чи ні, результати експерименту доводять, що існують відчутні підводні камені, яких слід уникати при застосуванні технології ШІ в існуючих службах.

Часова мітка:

Більше від МетаНовини