攻克量子估计不可靠难题,IBM用缺点减缓得到有用估计,登Nature封面

一直以来,量子估计与传统估计相比,量子估计在某些问题上提供了比传统估计更快的速度,然而在采用量子估计的过程中消失一个巨大的问题,即这些系统消失固有的噪声,就像声音会在嘈杂的录音中丢失一样。这些噪声以一种不可预测的方式改变波函数不同分支的相位,不利于量子估计的成功。因而钻研人员尚未构建出性能普遍优于所有传统估计机的估计机。

对于如何管理量子估计消失的不可靠问题,现在大家比较接受的解决方案是采用容错量子电路,但这对当前的处理器又提出一个重大的挑战。

当前的量子处理器消失很大的缺点问题,虽然在许多情况下出现缺点的概率很小,通常低于 1%,但我们在每个量子比特上履行的每个操纵,包括读取其状态这样的基本操纵,都会带来显著的缺点率。假如我们正在履行的操纵须要很多量子比特,又或者我们须要在很少的量子比特上履行大量的操纵,这些操纵都会不可避免的带来缺点。

从长远来看,采用纠错量子比特(error-corrected qubits)是一个很好的解决方案。然而采用这种办法须要很多高质量的量子比特来存储每一位信息,这也意味着我们须要成千上万的量子比特,然而,依据目前的技术,钻研人员所能操纵的量子数远低于须要的量子数,毫不夸张的说我们最早要在下个十年才能实现。

今天,IBM 的一项钻研登上《Nature》封面,结果表明即使是嘈杂的量子估计机,其估计也可以比传统机器更准确。他们利用一种称为「缺点减缓(error mitigation)」的技术,成功地克服了当今量子比特消失的问题,尽管系统消失噪声,但也生了准确的结果。而且,他们以一种明显优于典范估计机的方式做到了这一点。现在 IBM 的 Eagle 量子估计机完成的估计,曾经难倒了与之对战的传统超级估计机。

图片

具体来讲,IBM 物理学家 Abhinav Kandala 及其合著者对每个量子比特的噪声进行了精确丈量,而这些噪声遵循相对可预测、并由它们在设备内位置、制造中微观缺陷和其他因素决定的模式。利用这些知识,钻研者推断出丈量结果,并观察二维固体完整磁化状态在没有噪声的情况下是什么样子。然后他们能够运行涉及 Eagle 所有 127 个量子比特和多达 60 个处理步骤的估计,这要比任何其他报道的量子估计实验都要多。

论文地址:https://www.nature.com/articles/s41586-023-06096-3

结果表明,当超级估计机能够完成估计时,两种办法的结果是一致的。但是当复杂性增加到一定程度时,超级估计机就会失败,而 Eagle 仍然能够提供解决方案。

下图为 IBM 钻研人员,从左到右分别是 Abhinav Kandala、Kristan Temme、Katie Pizzolato、Sarah Sheldon、Andrew Eddins 和 Youngseok Kim,以及量子估计机群。

图片

图源:James Estrin/The New York Times

办法

如果说量子纠错是一种避免噪声的办法(避免干扰量子比特准确履行操纵),那么缺点减缓可以看做允许噪声的消失,然后在进行补充。

早期的缺点减缓办法(称为概率缺点抵消)须要对量子处理器的行为进行采样,以建立典型噪声模型,然后从实际估计的丈量输出中在减去噪声。但是随着估计中所涉及的量子比特数量增加,这种办法变得有些不切实际 —— 因为须要进行更多的采样。

因此,钻研人员转向了另一种办法,他们有意放大并丈量处理器在不同水平上的噪声。然后利用丈量结果预估函数,该函数产生与实际丈量相似的输出。之后可以将该函数的噪声设置为零,以产生在没有任何噪声情况下处理器可能履行的估计结果。

该钻研利用了伊辛模型(Ising model),该模型被广泛应用于物理学,最近也被用于时间晶体、马约拉纳边缘模式的探索。其网格配置方式与其处理器上的量子比特物理排列一致。伊辛模型独立于量子硬件而消失。实验中,该钻研主要利用了 IBM 的 Eagle 处理器 ibm_kyiv。

图片

此外,该钻研采用 ZNE(zero-noise extrapolation),它以低得多的采样成本提供了有偏估计器。下图为带有概率缺点放大的 ZNE。

图片

接下来,该钻研测试了本文办法在 non-Clifford 电路和 Clifford θ_h = π/2 点上的有效性。

图片

量子 VS 典范

钻研者首先限制他们建模的旋转次数,以保证其行为可以在传统估计机上估计。结果表明缺点减缓流程有效。一旦噪声得到补充,量子估计的数量就与典范估计相匹配,甚至超过了十几个时间步。另外,钻研者可以相对简单地将模型扩展到典范估计机(128G 的 64 核处理器)开始「挣扎」的地方。

这发生在系统须要 68 个量子比特来建模的时候。从那里开始,钻研者利用软件来估计系统在典范估计机上的行为, 这使得它以一定的准确率代价来保持更长时间。即便如此,钻研者仍可以将模型的大小扩展到须要 127 个量子比特(Eagle 处理器)的位置,这远远超过了典范估计机可以跟上的水平。

图片实验中利用 127 量子比特 Eagle 量子处理器。图源:James Estrin/The New York Times

对此,加州大学圣巴巴拉分校物理学家、2019 年带领谷歌实现量子优越性的 John Martinis 表示,这些结果验证了 IBM 的短期战略,即通过减缓而不是纠正缺点来提供有用估计。从长远看,IBM 和大多数其他公司希望转向量子纠错,这种技术须要为每个数据量子比特添加大量额外的量子比特。

深远影响

IBM 已经拥有了超过 400 个量子比特的量子处理器,那么为什么在这项钻研中利用 127 个量子比特的 Eagle 呢?这是因为它是 IBM 成熟的第三代量子处理器,而 433 量子比特的 Osprey 处理器仍处于第一次迭代中。这两代量子处理器已被用于提升量子比特的性能,减少须要补充的噪声。

下图为 IBM 量子估计机的演进历程。IBM 预计今年晚些时候推出其迄今为止最强大的处理器,即 1121 量子比特的 Condor。另外,IBM 量子技术负责人 Jay Gambetta 表示,IBM 还在其开发 pipeline 中拥有多达 4158 个量子比特的实用规模处理器。他补充道,为了实现到 2033 年建造 10 万个量子比特机器(它们可以履行完全纠错算法)的长期目标,还须要解决大量工程问题。

图片

这引出了第二个原因:噪声补充的估计成本很高,须要利用典范估计机来完成。相反在量子估计机上进行噪声采样只需花费 5 分钟。但即使是较小的问题,完整的降噪过程也须要 4 小时。相比之下,在典范估计机上简单地对系统建模就得 8 小时。一些较大的问题须要约 30 小时来建模,同时降噪须要 9.5 小时。

这样下来的一个结果是添加足够的量子比特也可能使得缺点减缓在估计上变得难以处理。Gambetta 表示,「缺点减缓依然呈指数级缩放,但它的指数级程度要弱于模拟成本。」

IBM 在这里持乐观态度有两个理由。钻研者表示,首先缺点减缓涉及的算法主要是典范处理延迟,它们很大程度上通过概念上直接的优化来消除。其次涉及的时间作为量子硬件中缺点率函数来缩放,其中较低的缺点率将加速典范估计部分。

所有这一切使得 IBM 乐观地认为,在他们可能实现纠错量子比特之前,缺点减缓是在量子硬件上履行有用估计的一条路径。正如该项钻研总结的那样,「即使在容错量子估计出现之前,有噪声的量子估计机也能在超过 100 量子比特和 non-trivial 电路深度的范围内产生可靠的期望值。并且从噪声限制的量子电路中获得实际的估计优势是有价值的。」

参考链接:

https://www.nature.com/articles/d41586-023-01965-3

https://arstechnica.com/science/2023/06/ibm-compensates-for-errors-gets-usable-results-out-of-quantum-processor/

https://www.newscientist.com/article/2378229-ibm-quantum-computer-beat-a-supercomputer-in-a-head-to-head-test/

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/20412

(0)
上一篇 2023年6月15日 下午2:31
下一篇 2023年6月15日 下午2:38

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注