像孩子一样,这种受大脑启发的人工智能可以解释其推理

像孩子一样,这种受大脑启发的人工智能可以解释其推理

像孩子一样,这种受大脑启发的人工智能可以解释其推理柏拉图区块链数据智能。垂直搜索。人工智能。

孩子们是天生的科学家。他们观察世界,形成假设并进行检验。最终,他们学会解释他们的(有时是可爱搞笑的)推理。

人工智能,没那么多。毫无疑问,深度学习(一种松散地基于大脑的机器学习)正在极大地改变技术。从预测极端天气模式到设计新药物或诊断致命癌症,人工智能越来越多地融入到各个领域 科学前沿.

但深度学习有一个巨大的缺点:算法无法证明其答案的合理性。这种不透明性通常被称为“黑匣子”问题,阻碍了它们在高风险情况下的使用,例如在医学中。当患者被诊断出患有改变生活的疾病时,他们希望得到解释。目前,基于深度学习的算法即使具有很高的诊断准确性也无法提供该信息。

为了打开黑匣子,德克萨斯大学西南医学中心的一个团队从人类思维中寻找灵感。在 一项研究 in 自然计算科学他们将大脑网络研究的原理与依赖于可解释构建块的更传统的人工智能方法结合起来。

由此产生的人工智能的行为有点像一个孩子。它将不同类型的信息压缩成“中心”。然后,每个中心都会被转录成供人类阅读的编码指南——为程序员提供的 CliffsNotes,用简单的英语解释了算法关于在数据中发现的模式的结论。它还可以生成完全可执行的编程代码以进行尝试。

被称为“深度蒸馏”的人工智能在面临各种任务的挑战时就像科学家一样工作,例如困难的数学问题和图像识别。通过翻阅数据,人工智能将其提炼成逐步超越人类设计算法的算法。

“深度蒸馏能够发现与人类专业知识互补的普遍原则,” 他们论文中的团队。

薄如纸

人工智能有时在现实世界中会犯错误。以机器人出租车为例。去年,一些人多次被困在旧金山的一个社区——这对当地人来说很麻烦,但仍然得到了笑声。更严重的是,自动驾驶汽车阻塞了交通和救护车,甚至在一次事件中严重伤害了一名行人。

在医疗保健和科学研究中,危险也可能很高。

贝鲁特美国大学的 Joseph Bakarji 博士(未参与这项研究)表示,当涉及到这些高风险领域时,算法“需要对错误具有较低的容忍度”。 在关于该作品的姊妹篇中。

大多数深度学习算法的障碍是它们的难以解释。它们被构造为多层网络。通过接收大量原始信息并接收无数轮反馈,网络调整其连接以最终产生准确的答案。

这个过程是深度学习的核心。但当数据不足或任务过于复杂时,它就会陷入困境。

回到2021年,团队 开发了人工智能 那采取了不同的方法。神经网络被称为“符号”推理,通过观察数据来编码明确的规则和经验。

与深度学习相比,符号模型更容易被人们解释。将人工智能视为一组乐高积木,每个积木代表一个对象或概念。它们可以以创造性的方式组合在一起,但这种联系遵循一套明确的规则。

就其本身而言,人工智能很强大,但也很脆弱。它在很大程度上依赖于先前的知识来寻找构建模块。当在没有先前经验的情况下面临新情况的挑战时,它无法跳出框框思考,并且会崩溃。

这就是神经科学的用武之地。该团队受到连接组的启发,连接组是不同大脑区域如何协同工作的模型。通过将这种连通性与符号推理相结合,他们创造了一种具有坚实、可解释基础的人工智能,但在面临新问题时也能灵活适应。

在多项测试中,“神经认知”模型在需要推理的任务上击败了其他深度神经网络。

但它能让数据有意义并用工程算法来解释它吗?

人性化的接触

科学发现最困难的部分之一是观察嘈杂的数据并提取结论。这个过程导致了新材料和药物、对生物学更深入的理解以及对我们物理世界的洞察。通常,这是一个需要数年时间的重复过程。

人工智能或许能够加快处理速度,并有可能发现人类无法想象的模式。例如,深度学习在预测蛋白质结构方面特别有用,但其预测这些结构的推理却很难理解。

“我们能否设计学习算法,像人类通常所做的那样,将观察结果提炼成简单、全面的规则?”巴卡尔吉写道。

这项新研究采用了团队现有的神经认知模型,并赋予其额外的才能:编写代码的能力。

这种人工智能被称为“深度蒸馏”,它将相似的概念组合在一起,每个人工神经元编码一个特定的概念及其与其他概念的联系。例如,一个神经元可能会学习猫的概念,并知道它与狗不同。另一种类型在面对新图片(例如老虎)时处理变化,以确定它更像猫还是狗。

然后将这些人工神经元堆叠成层次结构。在每一层中,系统都会不断区分概念并最终找到解决方案。

训练不是让人工智能处理尽可能多的数据,而是一步一步进行——几乎就像教一个小孩一样。这使得在人工智能逐渐解决新问题时评估其推理成为可能。

Bakarji 解释说,与标准神经网络训练相比,人工智能内置了不言自明的方面。

在一次测试中,该团队用一款经典的视频游戏——康威的生命游戏来挑战人工智能。该游戏最初开发于 1970 世纪 XNUMX 年代,旨在根据一组特定规则将数字细胞培养成各种图案(您自己尝试一下) 相关信息)。经过模拟游戏数据的训练,人工智能能够预测潜在的结果,并将其推理转化为人类可读的指南或计算机编程代码。

人工智能在其他各种任务中也表现良好,例如检测图像中的线条和解决困难的数学问题。在某些情况下,它生成的创造性计算机代码优于现有方法,并且能够解释原因。

深度蒸馏可能会推动物理和生物科学的发展,在这些科学中,简单的部件可以产生极其复杂的系统。该方法的一个潜在应用是作为研究人员解码 DNA 功能的联合科学家。我们的大部分 DNA 都是“暗物质”,因为我们不知道它有什么作用(如果有的话)。可解释的人工智能可能会分析基因序列,并帮助遗传学家识别导致毁灭性遗传疾病的罕见突变。

在研究之外,该团队对人工智能与人类加强合作的前景感到兴奋。

神经符号方法 可能会带来更多类似人类的机器学习能力,”该团队写道。

巴卡尔吉同意。这项新研究“超越了技术进步,触及了我们今天面临的道德和社会挑战。”可解释性可以起到护栏的作用,帮助人工智能系统在接受训练时与人类价值观同步。对于医疗保健等高风险应用,它可以建立信任。

目前,该算法在解决可分解为概念的问题时效果最佳。它无法处理连续数据,例如视频流。

巴卡尔吉写道,这是深度蒸馏的下一步。它“将为科学计算和理论研究开辟新的可能性。”

图片来源: 7AV 7AV / Unsplash 

时间戳记:

更多来自 奇异枢纽