研究人员认为,要监管人工智能,应从硬件入手

研究人员认为,要监管人工智能,应从硬件入手

研究人员认为,要监管人工智能,应从硬件开始。柏拉图区块链数据智能。垂直搜索。人工智能。

在我们寻求限制人工智能破坏性潜力的过程中,剑桥大学的一篇新论文建议将远程杀伤开关和锁定装置(例如为阻止未经授权发射核武器而开发的装置)植入为其提供动力的硬件中。

论文[PDF],其中包括来自众多学术机构和 OpenAI 的一些声音,表明监管这些模型所依赖的硬件可能是防止其滥用的最佳方法。

研究人员认为:“与人工智能相关的计算是一个特别有效的干预点:它是可检测的、可排他性的、可量化的,并且是通过极其集中的供应链生产的。”

训练最多产的模型(据信超过一万亿个参数)需要巨大的物理基础设施:数以万计的 GPU 或加速器以及数周甚至数月的处理时间。研究人员表示,这使得这些资源的存在和相对性能难以隐藏。

更重要的是,用于训练这些模型的最先进芯片是由相对少数的公司生产的,例如英伟达、AMD 和英特尔,这使得政策制定者可以限制向相关个人或国家销售这些商品。

该论文认为,这些因素,加上半导体制造的供应链限制等其他因素,为政策制定者提供了更好地了解人工智能基础设施部署方式和地点、谁可以访问、谁不可以访问该基础设施以及对其滥用行为实施处罚的方法。 。

控制基础设施

该论文强调了政策制定者可能采取的多种人工智能硬件监管方式。许多建议——包括那些旨在提高知名度和限制人工智能加速器销售的建议——已经在国家层面上实施。

去年,美国总统乔·拜登提出了一项 行政命令 旨在识别开发大型两用人工智能模型的公司以及有能力的基础设施供应商 训练他们。如果您不熟悉,“双重用途”是指可以在民用和军事应用中发挥双重作用的技术。

近期,美国商务部 建议 该法规要求美国云提供商实施更严格的“了解你的客户”政策,以防止相关个人或国家规避出口限制。

研究人员指出,这种可见性很有价值,因为它可以帮助避免另一场军备竞赛,例如导弹差距争议引发的军备竞赛,错误的报告导致弹道导弹的大规模集结。尽管很有价值,但他们警告说,执行这些报告要求可能会侵犯客户隐私,甚至导致敏感数据泄露。

与此同时,在贸易方面,商务部继续 加紧 限制,限制了销往中国的加速器的性能。但是,正如我们之前报道的那样,虽然这些努力使中国等国家更难获得美国芯片,但它们还远非完美。

为了解决这些限制,研究人员建议建立一个人工智能芯片销售的全球登记处,该登记处可以在其生命周期内对其进行跟踪,即使在它们离开原籍国之后也是如此。他们建议,这样的注册表可以将唯一的标识符合并到每个芯片中,这有助于打击 走私 的组件。

在更极端的情况下,研究人员建议可以将终止开关嵌入到硅中,以防止它们在恶意应用中使用。

理论上,这可以让监管机构通过远程切断对芯片的访问来更快地对敏感技术的滥用做出反应,但作者警告说,这样做并非没有风险。这意味着,如果实施不当,这样的终止开关可能会成为网络犯罪分子的目标。

另一项提案要求多方签署具有潜在风险的人工智能训练任务,然后才能大规模部署。 “核武器使用类似的机制,称为许可行动链接,”他们写道。

对于核武器来说,这些安全锁的目的是防止一个人失控并发动第一次打击。然而,对于人工智能来说,如果个人或公司想要在云中训练超过特定阈值的模型,他们首先需要获得授权才能这样做。

尽管这是一个有效的工具,但研究人员观察到,这可能会阻碍理想人工智能的发展,从而适得其反。争论似乎是,虽然使用核武器会产生相当明确的结果,但人工智能并不总是那么黑白分明。

但如果这对你来说有点过于反乌托邦,本文用了整整一个章节来重新分配人工智能资源,以改善整个社会。这个想法是,政策制定者可以齐心协力,让人工智能计算更容易被不太可能将其用于邪恶的群体所使用,这一概念被描述为“分配”。

监管人工智能发展出了什么问题?

为什么要这么麻烦呢?嗯,该论文的作者认为物理硬件本质上更容易控制。

与硬件相比,“人工智能开发的其他输入和输出——数据、算法和训练模型——都是易于共享、非竞争性的无形商品,这使得它们本质上难以控制,”该论文写道。

争论的焦点是,一旦模型发布,无论是公开的还是泄露的,都无法将精灵放回瓶子里并阻止其在网络上的传播。

研究人员还强调,防止模型滥用的努力已被证明是不可靠的。在一个例子中,作者强调了研究人员能够轻松拆除 Meta 的 Llama 2 中旨在防止模型生成攻击性语言的保护措施。

极端地说,人们担心可以采用足够先进的两用模型来加速 开发 化学或生物武器。

该论文承认,人工智能硬件监管并不是灵丹妙药,也不能消除该行业其他方面的监管需求。

然而,考虑到首席执行官 Sam Altman 的 尝试 控制围绕人工智能监管的叙述。 ®

时间戳记:

更多来自 注册