为了实现我们的使命,我们致力于确保广泛使用 AI 和 AGI,并从中受益并对其产生影响。 我们认为,要在 AI 系统行为的背景下实现这些目标,至少需要三个构建块。[^范围]
1.改善默认行为. 我们希望尽可能多的用户发现我们的 AI 系统“开箱即用”对他们有用,并认为我们的技术理解并尊重他们的价值观。
为此,我们正在投资研究和工程,以减少 ChatGPT 对不同输入的响应方式中明显和微妙的偏差。 在某些情况下,ChatGPT 当前会拒绝它不应该拒绝的输出,而在某些情况下,它不会在应该拒绝的时候拒绝。 我们相信,在这两个方面都有改善的可能。
此外,我们在系统行为的其他方面还有改进的空间,例如系统“编造东西”。 用户的反馈对于进行这些改进非常宝贵。
2. 在广泛的范围内定义你的人工智能的价值观. 我们相信人工智能应该成为对个人有用的工具,因此每个用户都可以根据社会定义的限制进行定制。 因此,我们正在开发对 ChatGPT 的升级,以允许用户轻松自定义其行为。
这将意味着允许其他人(包括我们自己)可能强烈反对的系统输出。 在这里取得正确的平衡将具有挑战性——将定制化发挥到极致可能会带来风险 恶意使用 我们的技术和阿谀奉承的人工智能无意识地放大了人们现有的信念。
因此,系统行为总会有一些限制。 挑战在于定义这些界限是什么。 如果我们试图自己做出所有这些决定,或者如果我们试图开发一个单一的、整体的人工智能系统,我们将无法履行我们在宪章中做出的“避免权力过度集中”的承诺。
3. 关于默认值和硬边界的公众意见. 避免权力过度集中的一种方法是让使用 ChatGPT 等系统或受其影响的人能够影响这些系统的规则。
我们认为,关于我们的默认值和硬边界的许多决定应该集体做出,虽然实际实施是一个挑战,但我们的目标是包含尽可能多的观点。 作为起点,我们以以下形式寻求对我们技术的外部输入 红队. 我们最近也开始 征求公众意见 关于教育中的人工智能(我们的技术正在部署的一个特别重要的环境)。
我们正处于试点工作的早期阶段,以更广泛地征求公众对系统行为、披露机制(如水印)和我们的部署政策等主题的意见。 我们还在探索与外部组织的合作伙伴关系,以对我们的安全和政策工作进行第三方审计。
- SEO 支持的内容和 PR 分发。 今天得到放大。
- 柏拉图区块链。 Web3 元宇宙智能。 知识放大。 访问这里。
- Sumber: https://openai.com/blog/how-should-ai-systems-behave
- :是
- $UP
- 1
- a
- 对,能力--
- 关于
- ACCESS
- 德盛
- AI
- 所有类型
- 允许
- 时刻
- 和
- 保健
- AS
- At
- 审计
- 当前余额
- BE
- 相信
- 好处
- 吹氣梢
- 广阔
- 宽广地
- 建筑物
- by
- 例
- 挑战
- ChatGPT
- 统
- 承诺
- 提交
- 浓度
- 进行
- 上下文
- 目前
- 定制
- 定制
- 定制
- 决定
- 决定
- 默认
- 默认
- 定义
- 定义
- 部署
- 部署
- 开发
- 发展
- 不同
- 尺寸
- 泄露
- 不会
- 每
- 早
- 容易
- 教育
- 工作的影响。
- 工程师
- 保证
- 错误
- 探索
- 外部
- 极端
- 反馈
- 找到最适合您的地方
- 针对
- 申请
- 止
- 给
- 理想中
- 硬
- 有
- 相关信息
- 创新中心
- HTTPS
- 履行
- 重要
- 改善
- 改进
- 改善
- in
- 其他
- 包括
- 包括
- 个人
- 影响
- 输入
- 无价
- 投资
- IT
- 喜欢
- 范围
- 制成
- 使
- 制作
- 许多
- 使命
- 单片
- 更多
- of
- on
- 一
- OpenAI
- 秩序
- 组织
- 其他名称
- 己
- 尤其
- 合作伙伴关系
- 员工
- 人的
- 观点
- 柏拉图
- 柏拉图数据智能
- 柏拉图数据
- 点
- 政策
- 可能
- 功率
- 实用
- 国家
- 最近
- 减少
- 必须
- 研究
- 风险
- Room
- 定位、竞价/采购和分析/优化数字媒体采购,但算法只不过是解决问题的操作和规则。
- 实现安全
- 应该
- 单
- 社会
- 一些
- 实习
- 开始
- 非常
- 这样
- 系统
- 产品
- 专业技术
- 这
- 他们
- 因此
- 博曼
- 事
- 第三方
- 三
- 至
- 工具
- Topics
- 理解
- 升级
- 使用
- 用户
- 用户
- 价值观
- 方法..
- 什么是
- 这
- 而
- WHO
- 广泛
- 将
- 中
- 将
- 您一站式解决方案
- 和风网