机器可以自我意识吗? 新研究解释了这是如何发生的

机器可以自我意识吗? 新研究解释了这是如何发生的

要制造一台机器,必须知道它的零件是什么以及它们是如何组装在一起的。 要了解机器,需要知道每个部分的作用以及它们如何发挥作用。 换句话说,人们应该能够解释它如何运作的“机制”。

根据一个 哲学方法 被称为机制,人类可以说是一种机器——我们思考、说话和理解世界的能力是我们不理解的机械过程的结果。

为了更好地了解我们自己,我们可以尝试建造模仿我们能力的机器。 这样做,我们将对这些机器有一个机械的理解。 机器展示的我们的行为越多,我们就越接近于对自己的思想进行机械解释。

从哲学的角度来看,这就是使 AI 变得有趣的原因。 高级模型,例如 GPT-4 而 Midjourney 现在可以模仿人类对话,通过专业考试,只用几句话就可以生成精美的图片。

然而,尽管取得了所有进展,但问题仍未得到解答。 我们怎样才能让一些东西具有自我意识,或者意识到其他人都知道? 什么是身份? 什么意思?

尽管对这些事物有许多相互竞争的哲学描述,但它们都抵制了机械解释。

在一个 论文顺序 接受的 第 16 届人工智能年会 在斯德哥尔摩,我对这些现象提出了机械解释。 他们解释了我们如何构建一台能够感知自身、他人、他人所感知的自身等的机器。

情报和意图

许多我们称之为智能的东西归结为在信息不完整的情况下对世界做出预测。 机器做出准确预测所需的信息越少,它就越“智能”。

对于任何给定的任务,实际有用的智力是有限度的。 例如,大多数成年人都足够聪明,可以学会开车,但更高的智力可能不会让他们成为更好的司机。

我的论文描述 智力的上限 对于给定的任务,以及构建实现该任务的机器所需的条件。

我将这个想法命名为 Bennett 的剃刀,用非技术术语来说就是“解释不应该比必要的更具体”。 这不同于对奥卡姆剃刀的流行解释(和 其数学描述),这是对更简单解释的偏好。

差异很微妙,但很重要。 在一个 实验 比较 AI 系统学习简单数学需要多少数据,偏好不太具体解释的 AI 比偏好简单解释的 AI 高出 500%。

探索这一发现的含义使我对意义进行了机械解释——一种叫做“格里斯语用学” 这是语言哲学中的一个概念,着眼于意义与意图之间的关系。

为了生存,动物需要预测其环境(包括其他动物)将如何行动和反应。 你会毫不犹豫地将无人看管的汽车留在狗附近,但你的臀部牛排午餐却不能这样说。

在社区中变得聪明意味着能够推断出他人的意图,这源于他们的感受和偏好。 如果机器要达到依赖于与人类交互的任务的智能上限,那么它还必须正确推断意图。

如果一台机器可以将意图归因于发生在它身上的事件和经历,这就提出了身份问题以及了解自己和他人意味着什么。

因果关系和同一性

下雨的时候我看到约翰穿着雨衣。 如果我强迫约翰在晴天穿雨衣,会下雨吗?

当然不是! 对于人类来说,这是显而易见的。 但是因果关系的微妙之处更难教机器(有兴趣的读者可以看看 为什么这本书 Judea Pearl 和 Dana Mackenzie 着)。

要推理这些事情,机器需要知道“我导致它发生”与“我看到它发生”是不同的。 通常,我们会 程序 这种理解融入其中。

然而,我的工作解释了我们如何构建一台能够以智能上限执行任务的机器。 根据定义,这样的机器必须能够正确识别因果关系,因此也能推断出因果关系。 我的论文 探索究竟如何。

这其中的含义是深远的。 如果机器学习“我导致它发生”,那么它必须构建“我”(它自己的身份)和“它”的概念。

推断意图、了解因果关系以及构建抽象身份的能力都是相互关联的。 达到任务智能上限的机器必须具备所有这些能力。

这台机器不仅为自己构建身份,而且为每个对象的每个方面帮助或阻碍其完成任务的能力构建身份。 然后它可以 使用自己的偏好 作为一个 预测基线 其他人可能会做什么。 这类似于 人类倾向于归因于 对非人类动物的意图。

那么这对人工智能意味着什么?

当然,在我的研究中,人的思维远不止是用来进行实验的简单程序。 我的工作提供了一个可能的因果路径的数学描述,以创建一个可以说是自我意识的机器。 然而,设计这样的东西的具体细节还远未解决。

例如,类似人类的意图需要类似人类的体验和感受,这是很难设计的。 此外,我们无法轻易测试人类意识的丰富程度。 意识 是一个广泛而含糊的概念,它包含——但应该区别于——上述更狭义的主张。

我已经提供了一个机械解释 方面 意识——但这本身并不能捕捉到人类体验到的意识的全部丰富性。 这仅仅是个开始,未来的研究将需要扩展这些论点。谈话

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.

图片来源: DeepMind on Unsplash 

时间戳记:

更多来自 奇异枢纽