ChatGPT:让事情变得更安全(Simon Thompson)

ChatGPT:让事情变得更安全(Simon Thompson)

ChatGPT:让事情变得更安全(Simon Thompson)PlatoBlockchain 数据智能。垂直搜索。人工智能。

In 本博客的第一部分 我研究了 ChatGPT 这一强大的新技术。 在第二部分也是最后一部分中,我探讨了需要哪些最佳实践才能尽可能安全地使用它。

很明显,我们不会将 ChatGPT 放回瓶中。 用于创建它的技术是众所周知的,虽然现在所需的计算量似乎是巨大的,但在相对不久的将来,它将会被更广泛地访问。 即使计算价格在不久的将来不会大幅下降,创建 GPT3.5 所需的计算类型已经可供许多国家行为者和范围广泛的非国家行为者使用。

谷歌宣布了基于其 LAMDA 技术的“Bard”,该技术非常引人注目,以至于一位内部工程师确信它有灵魂,而 Deepmind 开发了一个名为“Sparrow”的聊天机器人,“有人声称”它在技术上优于 ChatGPT。

大危险不太可能来自像 Alphabet 这样成熟的超级公司。 具有“快速行动和打破陈规”态度的小公司可能会在他们的应用理念上具有创造性和冒险精神。 但是这种系统可能会对非常真实的人造成非常真实的伤害,而这些可以由小型非专家团队轻松快速地实施。

让 ChatGPT 更安全的五个重要提示

尽管有很多途径可以说“不”,只有一条可以说“是”,但仍然会有很多申请被认为是合理的。 但这不会使他们安全。 为了对 ChatGPT 驱动的应用程序有信心,还建议执行以下步骤。

  1. 不应该欺骗用户正在与之交互的是什么。 如果您不知情,则不能给予知情同意。 Saleema Amershi 等人 [1] 发布了 AI 系统交互的优秀指南。 重要的是,这些提供了在用户交互的整个生命周期中考虑交互的结构。 该指南涵盖了如何让用户清楚他们正在与什么进行交互,以及如何指导他们了解对他们的期望。 Amershi 的指导贯穿整个交互过程,在系统变得“一切如常”时管理故障和加班。
  2. 用户应该可以选择不与系统交互。 一个真正的选择——例如一个替代的联系渠道。
  3. 每个申请都应该附有影响评估。 将它放在网站上,就像将 robots.txt 文件一样,或者像将许可证添加到源代码一样。 加拿大 AIA 流程为此类事情提供了一个模型,但一些基本问题是一个良好的开端。 如果它按预期工作,谁会受到伤害? 如果聊天机器人出错,谁会受到伤害? 任何人都可以判断聊天机器人是否出错,如果出错,他们可以阻止它并修复这种情况吗?
  4. 如果您的系统可能对其他人产生不利影响,那么应该监视和记录系统正在做什么以及它的行为方式。 如果需要,这些应该以允许对系统行为进行取证调查的方式进行维护。
  5. 如果您不直接对系统负责,则应开发和维护明确记录的治理流程。 其中一部分应该描述用户如何寻求帮助,以及他们如何投诉系统。 它还应该描述解决用户困扰和投诉的流程应该是什么。

在许多用例中具有巨大价值的潜力

有了正确的控制和流程,ChatGPT 等新的大型语言模型将在许多用例中提供巨大的价值,尽管有必要的控制和检查到位,以确保用户和最终用户免受任何误解。

  1. 阿默西,萨利马。 “人机交互指南”。 CHI 计算系统中的人为因素会议。 气, 2019. 1–13.

时间戳记:

更多来自 芬泰达