哈佛大学在量子计算方面的突破:向纠错和降噪迈出一大步

哈佛大学在量子计算方面的突破:向纠错和降噪迈出一大步

哈佛大学在量子计算方面的突破:迈向纠错和降噪柏拉图区块链数据智能的飞跃。垂直搜索。人工智能。

哈佛大学的一组研究人员与 QuEra 计算公司、马里兰大学和麻省理工学院联合披露,量子计算取得了重大进展。 美国国防高级研究计划局 (DARPA) 为开发一种独一无二的处理器提供了资金,该处理器的设计目的是克服该领域的两个最重要的问题:噪音和错误。

影响量子位(量子位)并导致计算错误的噪声一直是量子计算的一个重大障碍,量子计算一直面临着这个问题 困难 很长一段时间。 在改进量子计算机技术的过程中,这已被证明是一个重大障碍。 从一开始,就需要包含一千多个量子位的量子计算机来进行大量的纠错。 这是阻碍这些计算机广泛使用的问题。

在同行评审的科学杂志《自然》上发表的一项开创性研究中,由哈佛大学领导的团队披露了他们解决这些问题的策略。 他们提出了逻辑量子位的想法,逻辑量子位是通过量子纠缠连接在一起以用于通信目的的量子位的集合。 与依赖于信息副本的传统纠错方法相比,该技术利用了逻辑量子位中存在的固有冗余。

该团队使用了以前从未完成过的 48 个逻辑量子位,以便在纠错量子计算机上有效地执行大规模计算。 通过证明代码距离为 XNUMX(这表明对量子错误具有更强的恢复能力),这是通过构建和纠缠有史以来最大的逻辑量子位来实现的。 因此,这是可行的。

为了构建处理器,在真空室中分离了数千个铷原子,然后使用激光和磁铁将它们冷却到非常接近绝对零的温度。 其中 280 个原子被转换成量子位,并在额外激光的帮助下纠缠在一起,从而创建了 48 个逻辑量子位。 这些量子位没有使用电线,而是通过光镊相互通信。

与之前基于物理量子位的大型机器相比,这种新型量子计算机在计算过程中的错误率要低得多。 哈佛团队使用的处理器并没有修复计算过程中发生的错误,而是包含了后处理错误检测阶段。 在此阶段,错误的输出会被发现并被丢弃。 这是一种快速方法,可将量子计算机扩展到当前有效的嘈杂中尺度量子(NISQ)时代之外。

这一成就为量子计算带来了新的机遇。 这一成就是向量子计算机的发展迈出的一大步,量子计算机具有可扩展性、容错性,并且能够解决传统上难以解决的问题。 具体来说,该研究强调了量子计算机进行计算和组合的可能性,这是计算机科学领域现有技术无法想象的。 这为量子技术的进步开辟了一条全新的途径。

图片来源:Shutterstock

时间戳记:

更多来自 Blockchain新闻