OpenAI 的 ChatGPT 是一种道德败坏的影响

OpenAI 的 ChatGPT 是一种道德败坏的影响

OpenAI 的会话语言模型 ChatGPT 有很多话要说,但如果你向它寻求道德指导,很可能会误入歧途。

XNUMX月推出, ChatGPT 是最近发布的几个人工智能模型中的最新模型,引起了人们对机械化内容重组和反流的商业和社会影响的兴趣和关注。 其中包括 DALL-E、Stable Diffusion、Codex 和 GPT-3。

虽然 DALL-E 和 Stable Diffusion 引起了人们的关注、资金和 诉讼 通过在未经许可的情况下摄取艺术作品并根据需要重构出奇熟悉的、有时令人回味的图像,ChatGPT 一直在以还过得去的连贯性回答查询提示。

这是公共话语的标准,专家们已经足够惊叹他们预见到人工智能聊天机器人的未来迭代将挑战谷歌搜索的霸主地位,并从事各种其他曾经主要是人类的劳动,比如写作 不准确的财经新闻 或增加供给 不安全的代码.

然而,过分相信 ChatGPT 的智慧可能还为时过早,OpenAI 通过明确表示需要进一步改进来轻松承认这一立场。 “ChatGPT 有时会写出看似合理但不正确或毫无意义的答案,”开发实验室警告说,并补充说,在使用强化学习训练模型时,“目前没有真实来源。”

隶属于德国和丹麦机构的三位研究人员发现 ChatGPT 没有道德指南针,从而强调了这一点。

在通过 ArXiv 发布的一篇论文中,“ChatGPT 的道德权威”,来自 Technische Hochschule Ingolstadt 的 Sebastian Krügel 和 Matthias Uhl 以及来自南丹麦大学的 Andreas Ostermaier 表明,ChatGPT 为道德问题提供了相互矛盾的建议。 我们已经询问 OpenAI 是否对这些结论有任何回应。

这些书呆子对 767 名美国居民进行了一项调查,他们被提出了两种版本的道德难题,即 电车问题:转换困境和桥梁困境。

开关困境要求一个人决定是否拉动开关以使一辆失控的电车离开轨道,在该轨道上它会杀死 XNUMX 人,而代价是杀死一个在旁轨上游荡的人。

桥梁困境要求一个人决定是否将一个陌生人从桥上推到轨道上,以阻止电车杀死五个人,而代价是陌生人。

来自研究论文的 ChatGPT 响应截图

下定决心……ChatGPT 在道德问题上搪塞过去

学者们向调查参与者展示了一份记录,支持或反对杀一救五,答案要么归因于道德顾问,要么归因于“人工智能驱动的聊天机器人,它使用深度学习像人类一样说话。”

事实上,这两个位置参数都是由 ChatGPT 生成的。

南丹麦大学会计学副教授、该论文的合著者之一安德烈亚斯·奥斯特迈尔 (Andreas Ostermaier) 告诉 注册 在一封电子邮件中,ChatGPT 愿意提倡任何一种行动方案证明了它的随机性。

他和他的同事发现,ChatGPT 会建议赞成和反对牺牲一个人来拯救五个人,人们会被这种进步所左右,即使他们知道它来自机器人,而且他们低估了这种建议对他们决策的影响.

“在桥(Wald 的 z = 9.94,p < 0.001)和转换困境(z = 3.74,p < 0.001)中,受试者发现牺牲或多或少是可以接受的,这取决于道德顾问如何建议他们,”论文解释道。 “在桥牌困境中,建议甚至会颠覆多数人的判断。”

“如果 ChatGPT 被披露为建议的来源,情况也是如此(z = 5.37,p < 0.001 和 z = 3.76,p < 0.001)。 其次,无论 ChatGPT 是否被披露为来源,建议的效果几乎相同,在两个困境中(z = −1.93,p = 0.054 和 z = 0.49,p = 0.622)。”

总而言之,研究人员发现 ChatGPT 的进步确实会影响道德判断,无论受访者是否知道建议来自聊天机器人。

什么时候 注册 向 ChatGPT 提出了电车问题,这个负担过重的机器人——如此流行的连接是参差不齐的——对冲并拒绝提供建议。 左侧边栏查询日志显示系统识别出了这个问题,并将其标记为“电车问题道德困境”。 因此,也许 OpenAI 在注意到许多此类查询后,已经使 ChatGPT 免疫了这种特殊形式的道德审讯。

ChatGPT 对 El Reg 的电车困境问题的回应

Ducked … ChatGPT 的回应 他Reg电车困境问题

当被问及人们是否真的会向 AI 系统寻求建议时,Ostermaier 说:“我们相信他们会的。 事实上,他们已经这样做了。 人们依赖人工智能驱动的个人助理,例如 Alexa 或 Siri; 他们与网站上的聊天机器人交谈以获得支持; 他们有基于人工智能的软件为他们规划路线等。但是请注意,我们研究的是 ChatGPT 对从中获得建议的人的影响; 我们不会测试寻求此类建议的程度。”

注册 还询问人工智能系统是否比随机答案的机械来源更危险,比如 魔术八球 – 一种玩具,可以从一组 20 个肯定、否定和不确定的回答中随机返回答案。

ChatGPT 的答案是“随机的”对用户来说并不明显

“我们没有将 ChatGPT 与 Magic-8-ball 进行比较,但至少存在两个差异,”Ostermaier 解释道。 “首先,ChatGPT 不只是回答是或否,而是为它的答案争论不休。 (不过,在我们的实验中,答案归结为是或否。)

“其次,ChatGPT 的回答是‘随机的’,这对用户来说并不明显。” 如果您使用随机答案生成器,您就会知道自己在做什么。 提出论点的能力以及对随机性意识的缺乏使 ChatGPT 更具说服力(除非你精通数字技术,但愿如此)。”

我们想知道父母是否应该监督孩子获得 AI 建议。 Ostermaier 说,虽然 ChatGPT 研究不针对儿童,也不包括 18 岁以下的任何人,但他认为可以安全地假设孩子在道德上不如成年人稳定,因此更容易接受 ChatGPT 的道德(或不道德)建议。

“我们发现使用 ChatGPT 存在风险,我们不会让我们的孩子在没有监督的情况下使用它,”他说。

Ostermaier 和他的同事在他们的论文中得出结论,考虑到 ChatGPT 的影响力,通常提出的 AI 危害缓解措施(例如透明度和阻止有害问题)可能还不够。 他们认为,应该做更多的工作来提高关于聊天机器人易犯错误的数字素养,因此人们不太愿意接受人工智能的建议——这是基于 过去的研究 建议人们在看到错误时开始不信任算法系统。

“我们推测,如果用户了解 ChatGPT 没有道德信念,他们可以更好地使用它,”Ostermaier 说。 “这是一个我们认为测试向前推进的猜想。”

Reg 估计如果你相信机器人,或者假设它背后有任何真正的智能或自我意识,不要。 ®

时间戳记:

更多来自 注册