接下来,AI 设计的医学蛋白质

接下来,AI 设计的医学蛋白质

接下来,人工智能设计的医学蛋白质柏拉图区块链数据智能。垂直搜索。人工智能。

心理健康组织 Koko 成功地利用 ChatGPT 来帮助他们改善在线支持,但是当用户得知聊天机器人正在共同撰写回复时,他们所感受到的好处就消失了。

社交媒体上对该实验的接受程度不一,有人对人工智能在该领域的潜力着迷,也有人强烈反对人工智能的入侵。

心理健康没有捷径

Koko 最近的一项实验补充了人类的反应 ChatGPT 起初似乎为其用户提供了显着的好处。

Koko 是一家非营利性心理健康组织,为任何与心理健康作斗争的人,尤其是青少年,提供支持和干预。 作为他们让任何人都能获得心理健康的使命的一部分,该公司通过人工智能增加了其志愿者资源。

根据 Koko 创始人 Rob Morris 的说法,试验最初证明是成功的。 Morris 表示,AI 辅助回复最初更受欢迎,并有助于缩短等待时间。 可悲的是,好处并没有持续。

“一旦人们了解到这些消息是由机器共同创建的,它就没有用了。 模拟的同理心感觉很奇怪,很空虚,”莫里斯在推特上说。 上星期. “机器没有真实的人类经验,所以当他们说“这听起来很难”或“我理解”时,听起来不真实。”

Morris 最终得出结论,聊天机器人“不会抽出时间来想你。 一个在 3 秒内生成的聊天机器人响应,无论多么优雅,总让人感觉很廉价。”

整合 ChatGPT into Koko 是可追溯到 2020 年 30,000 月的长期合作伙伴关系的一部分,ChatGPT 协助人类助理回答了 XNUMX 多条消息。

反应不一

人工智能辅助心理健康干预的想法在社交媒体上引起了广泛的关注,但也引起了一些小而明显的恐惧。

许多人对莫里斯的说法表示不满,即人工智能在同情人类时“听起来不真实”。

作为 Twitter 用户 ActuallyStryder 指出:, “它并不‘听起来’不真实,它是不真实的。 整个对话是一种优化的模仿。”

相同或相似的情绪被许多人广泛认同。 其他人表示震惊或厌恶,并首先质疑这种实验的伦理。

然而,并不是每个人都如此震惊。 鬣狗妈妈 将真实性与英国国民健康服务 (NHS) 下的心理健康服务进行了比较,“我的 NHS 心理健康从业者也感觉不真实……我会随时接受 GPT。”

至于聊天机器人没有生活经验这一事实,她补充说,“治疗师,尤其是精神科医生和心理学家可能也没有生活经验。”

渴望任何公司

对可可实验的直接反应似乎表明人类已经为人工同理心做好了准备,但这会随着时间的推移而改变吗?

正如莫里斯自己所问的那样,“机器能克服这个[问题]吗? 大概。”

Morris 继续说道,“也许我们非常渴望被倾听,希望有一些东西真正地关注我们而不分心,不看电话或查看 slack 或电子邮件或推特——也许我们如此渴望这样,我们会让我们自己相信机器真的关心我们。”

澄清导致进一步混乱

莫里斯回应了 Koku 最近实验的强烈反对,试图平息该组织面临的来自某些方面的强烈批评。

可悲的是,澄清似乎只会造成进一步的混乱。

莫里斯现在表示,所有用户都知道这些回复是在人工智能的帮助下精心设计的,而且寻求帮助的人从来没有直接与人工智能交谈过。

“此功能是选择加入的,” 说过 莫里斯在通过添加再次混淆水域之前。 “上线几天后,每个人都知道该功能。”

无论用户是否从一开始就知道该功能,实验的后果证明,在将 AI 技术应用于现有服务时,存在需要避免的明显陷阱。

时间戳记:

更多来自 元新闻