CCC 回应 NTIA 索取具有广泛可用模型权重的双重用途基础 AI 模型信息的请求 » CCC 博客

CCC 回应 NTIA 索取具有广泛可用模型权重的双重用途基础 AI 模型信息的请求 » CCC 博客

上周,中国通信委员会回应国家电信和信息化管理局的要求 索取有关具有广泛可用模型权重的双重用途基金会人工智能模型的信息。 CCC 自己的 Daniel Lopresti(CCC 主席和理海大学)和 David Danks(CCC 执行委员会和加州大学圣地亚哥分校)与计算社区的其他几位成员一起帮助撰写了此回复。 Markus Buehler(麻省理工学院)和 Duncan Watson-Parris(加州大学圣地亚哥分校)今年都在 CCC 赞助的 AAAS 小组上发表了演讲,题为: 科学中的生成人工智能:前景与陷阱,以及参加 CCC 会议的 Casey Fiesler(科罗拉多大学博尔德分校)都为 RFI 响应做出了贡献 社会技术研究的未来 十一月的研讨会。

在回复中,作者重点关注了 RFI 中的几个具体问题,其中一个问题是,与非公开模型权重相关的风险相比,广泛使用模型权重所带来的风险如何。作者回应说,通过广泛使用模型权重,与生成模型相关的大多数风险只会被最小化。与生成模型相关的大多数风险都是这些模型所固有的,因为它们能够根据用户输入快速生成大量可信的内容,并且具有几乎无限的应用领域。公开模型权重不会影响生成模型的功能,因此目前几乎没有证据表明,广泛使用权重会带来比专有或封闭系统已经可以做到的更大的额外风险。如果专有模型的权重被广泛使用,则可能会加剧的一种风险是训练数据可能被暴露。模型权重不太可能通过逆向工程来暴露训练数据,但尚未证明这在数学上是不可能的。然而,在我们的回应中,我们强调,由于生成模型可能会继续被公众大量使用,因此我们认为,最大的风险来自于不公开公开代表性基础模型的权重。拒绝研究人员和感兴趣的社区成员访问专有模型的某些模型权重将阻止社会更好地理解这些模型如何运作以及如何设计更具包容性和可访问性的模型。

继续发布封闭模型的做法将继续导致技术多样性的缺乏,并将阻碍某些类型的研究的进行,例如对这些模型的偏见审计,大型科技公司没有动力进行此类研究。未来劳动力的教育是另一个极其重要的考虑因素。如果不在研究生和研究生教育中对未来一代开发人员进行此类模型的培训,美国就不可能在生成人工智能领域保持领先地位。重要的是,学生可以在教育过程中探索这些模型,以了解它们的基本功能,并学习如何在开发新模型时纳入道德考虑。只允许大型科技公司拥有培训下一代的工具也可能会导致孤立的思维,并且这些组织可能会忽视整体教育,而访问这些模型可以提供有利于更有效的按需学习框架的整体教育。在我们的回应中,我们还强调了围绕这些模型的开发建立开放文化的重要性,并强调建立这种文化与规范这些技术同样重要。如果科技公司期望以透明的方式创建生成模型,那么未来的监管就会变得更容易进行。

最后,CCC 强调需要对基础模型进行更多研究,理由是公众目前缺乏关于这些模型如何实际运作并得出其输出结果的知识。在我们的回复中,我们列出了一些尚未解答的研究问题,社会问题领域的研究人员、科学家、学者和专家准备开始回答这些问题,前提是他们能够获得工业界正在利用的大型基础模型所需的开放访问权限。 。我们作为一个社会的持续成功取决于它。

请在此处阅读完整的 CCC 回复.

时间戳记:

更多来自 CCC 博客