人工智能系统应该如何表现,谁来决定?

人工智能系统应该如何表现,谁来决定?

人工智能系统应该如何表现,又应该由谁来决定? Plato区块链数据智能。垂直搜索。人工智能。

为了实现我们的使命,我们致力于确保广泛使用 AI 和 AGI,并从中受益并对其产生影响。 我们认为,要在 AI 系统行为的背景下实现这些目标,至少需要三个构建块。[^范围]

1.改善默认行为. 我们希望尽可能多的用户发现我们的 AI 系统“开箱即用”对他们有用,并认为我们的技术理解并尊重他们的价值观。

为此,我们正在投资研究和工程,以减少 ChatGPT 对不同输入的响应方式中明显和微妙的偏差。 在某些情况下,ChatGPT 当前会拒绝它不应该拒绝的输出,而在某些情况下,它不会在应该拒绝的时候拒绝。 我们相信,在这两个方面都有改善的可能。

此外,我们在系统行为的其他方面还有改进的空间,例如系统“编造东西”。 用户的反馈对于进行这些改进非常宝贵。

2. 在广泛的范围内定义你的人工智能的价值观. 我们相信人工智能应该成为对个人有用的工具,因此每个用户都可以根据社会定义的限制进行定制。 因此,我们正在开发对 ChatGPT 的升级,以允许用户轻松自定义其行为。

这将意味着允许其他人(包括我们自己)可能强烈反对的系统输出。 在这里取得正确的平衡将具有挑战性——将定制化发挥到极致可能会带来风险 恶意使用 我们的技术和阿谀奉承的人工智能无意识地放大了人们现有的信念。

因此,系统行为总会有一些限制。 挑战在于定义这些界限是什么。 如果我们试图自己做出所有这些决定,或者如果我们试图开发一个单一的、整体的人工智能系统,我们将无法履行我们在宪章中做出的“避免权力过度集中”的承诺。

3. 关于默认值和硬边界的公众意见. 避免权力过度集中的一种方法是让使用 ChatGPT 等系统或受其影响的人能够影响这些系统的规则。

我们认为,关于我们的默认值和硬边界的许多决定应该集体做出,虽然实际实施是一个挑战,但我们的目标是包含尽可能多的观点。 作为起点,我们以以下形式寻求对我们技术的外部输入 红队. 我们最近也开始 征求公众意见 关于教育中的人工智能(我们的技术正在部署的一个特别重要的环境)。

我们正处于试点工作的早期阶段,以更广泛地征求公众对系统行为、披露机制(如水印)和我们的部署政策等主题的意见。 我们还在探索与外部组织的合作伙伴关系,以对我们的安全和政策工作进行第三方审计。

时间戳记:

更多来自 OpenAI