2019年10月,谷歌的一项关于量子计算的研究登上了Nature封面。谷歌声称用53个量子比特的量子计算机Sycamore实现了quantum supremacy,引起了学界的广泛关注。论文中指出,他们的量子计算机用3分20秒完成了一项任务,而超级计算机Summit则需要1万年才能完成同样的任务,Sycamore 是完全可编程的、可以运行通用量子算法的量子计算机。不少行业专家称赞谷歌的这项研究是量子计算的里程碑式突破。
论文地址:https://www.nature.com/articles/s41586-019-1666-5谷歌的实验内容是用Sycamore分析量子随机电路输出的量子状态的模式。随机量子电路会持续产生比特串,由于量子干扰的存在,当多次重复实验时,某些比特串比其他比特串更容易出现。随着量子比特数量和量子门数量的增加,在经典计算机上分析随机量子电路比特串模式的难度将指数增加。量子计算机能以多项式时间执行这一任务得益于其并行性。Sycamore大约只需 200 秒即可对量子随机电路采样 100 万次,而超级计算机Summit完成同样的任务大约需要 1 万年。同样在2019年10月,IBM 的研究者在 arXiv 上发表了一篇名为《Leveraging Secondary Storage to Simulate Deep 54-qubit Sycamore Circuits》的论文,表示可以利用二级存储扩展经典计算机实际模拟的量子电路的范围。所以,在Summit上模拟Sycamore根本不需要1万年,只需要两天半。 论文地址:https://arxiv.org/pdf/1910.09534.pdf尽管IBM并没有进行实验,但这一结论也得到了行业专家的认可。UC Austin 教授、理论计算机学家 Scott Aaronson说:“IBM 声称可以通过超级计算机的硬盘存储量子状态向量,从而在两天半内模拟 Sycamore……IBM 并没有进行实验证明这一结论,但是我几乎没有理由怀疑他们的分析基本上是正确的。”加州大学戴维斯分校的数学家Greg Kuperberg指出,在谷歌的随机量子电路中输出的比特串模式与由噪声引起的量子比特的随机翻转几乎没有区别,因而他怀疑其实验的价值所在。量子比特通常是不稳定的,为了维持逻辑量子比特的准确性,需要进行量子纠错。和传统的纠错方法不同,由于量子不可克隆定理、量子叠加态塌缩(或称波函数塌缩)的限制,对量子比特进行纠错必须加入辅助量子比特。相对于经典比特,量子比特还存在相位上的错误,这也为量子纠错带来了更大的复杂性。通常需要上千个物理量子比特来实现一个高保真的逻辑量子比特,而这也会为系统带来大量的噪声。也就是说,纠错方法本身不可避免地引入更多的噪声。谷歌的量子计算机Sycamore中面临着同样的困难。此外,由于纠错还需要反复使用量子比特,这使纠错过程比仅测量一次所有量子比特的quantum supremacy实验要苛刻得多。不少行业专家表示,在未来的发展中,量子计算机面临的主要挑战还是量子纠错。也就是说,我们还远未实现可扩展的量子计算,应该把精力集中在单个量子比特的纠错上,关注0和1之间,而不是0和1之外。Science特约撰稿人Adrian Cho近期就发表了一篇文章,为我们科普了量子纠错的概念,并介绍了该领域的研究现状。2019年10月,谷歌宣布他们的量子计算机解决了一个超级计算机不可能解决的问题,实现了quantum supremacy。有人说,这标志着量子计算时代的到来。但是,Greg Kuperberg对此不以为然。他曾期望谷歌做出不那么浮华但是更重要的研究。计算机通过操纵0和1构成的长比特串来发挥作用。相比之下,量子计算机使用的量子比特可以处于0和1同时存在的状态,称为量子叠加态。研究员已经在离子、光子或超导电路中实现了这样的量子态,但是这些量子态也很脆弱,与周围环境的最轻微相互作用都会使叠加态塌缩为0或1的非叠加态。因此,科学家必须解决这个问题,而Kuperberg曾期望谷歌为实现这一目标迈出关键一步。对于谷歌的quantum supremacy实验的质疑,人们强调了量子纠错的重要性。Rigetti Computing的物理学家和联合创始人Chad Rigetti说:“10,000个量子比特的量子计算机是随机噪声发生器,还是世界上功能最强大的计算机,两者的价值相差了1亿美元。”所有人都同意Kuperberg提出的要实现的第一步:将单个量子比特编码的信息传播出去,即使存在量子噪声,也能保持该信息。德克萨斯大学奥斯汀分校的计算机科学家Scott Aaronson解释说:“这相当于建造一艘船,即使其中的每个木板都在腐烂并且必须更换。”纠错还需要反复使用量子比特。谷歌物理学家Marissa Giustina表示,这使该过程比仅测量一次所有量子比特的quantum supremacy实验要苛刻得多。她说,纠错需要在一个周期内一遍又一遍地进行测量,而这必须迅速而可靠地完成。Google、Rigetti和IBM都朝着这个目标努力。”领导谷歌量子人工智能实验室的Hartmut Neven说表示:“这显然是下一个重要的里程碑”。领导IBM量子计算工作的Jay Gambetta也承认:“在接下来的几年中,我们在量子纠错上会做出可见的成果。”为了证明quantum supremacy,谷歌科学家将53个量子比特进行纠缠。为了以足够的保真度在单个量子比特中编码数据,他们可能需要操控1000个物理量子比特。麻省理工学院的数学家Peter Shor于1994年证明量子计算机可以快速求解大数的因式分解问题。大数因式分解的Shor算法只需要多项式时间,而传统算法需要指数时间。运行Shor算法的机器可能会破解目前保护互联网通信安全的加密系统,即RSA加密算法。但是,Shor算法假设每个量子比特都是稳定的,实际情况下的量子比特远不稳定。谷歌、IBM和Rigetti使用的量子位由蚀刻到微芯片中的超导金属的微小谐振电路制成,到目前为止,与其他类型的量子比特相比,这些量子比特已被证明更易于控制和集成到电路中。通过用微波操控超导量子电路,研究人员可以将任意一个量子比特的状态转换为0和1的任意组合,例如30%0和70%1。但是这些量子状态不能维持一秒钟,甚至在这之前,噪声就可能搅乱并改变状态,从而破坏计算。普通电路的比特状态必须为0或1,而量子比特可以为0和1的任意组合。因此,量子比特的状态可以用球面上的一个点来表示,纬度表示0和1的相对振幅,经度表示相位。噪声可以通过两种基本的方式来扰动量子比特,即扰动振幅或相位。噪音几乎淹没了谷歌quantum supremacy实验中的信号。研究人员从设置53个量子比特开始,编码了所有可能的输出,范围从0到2^53。他们在量子比特之间实施了一组随机选择的相互作用,在反复试验中,某些输出比其他输出更有可能出现。研究人员说,鉴于相互作用的复杂性,一台超级计算机将需要1万年的时间才能计算出输出模式。但是这种模式与由噪声引起的量子比特的随机翻转几乎没有区别。“他们的演示中有99%是噪声,只有1%是信号。” Kuperberg说。在许多物理量子比特中传播一个量子比特的信息的方法可以追溯到1950年代普通计算机的早期。早期计算机的部件由真空管或机械继电器组成,容易意外翻转状态。为了克服这个问题,著名的数学家John von Neumann开创了纠错领域。Von Neumann的方法依靠冗余。假设计算机每个比特复制三份。然后,即使三个比特有一个翻转,大多数比特都还是正确的。在所谓的奇偶校验中,计算机可以通过比较成对的比特来查找并修复翻转的比特。如果第一个比特和第三个比特匹配,但是第一个比特和第二个比特以及第二个比特和第三个比特不同,则很有可能第二个比特翻转了,计算机可以将其翻转回去。更大的冗余意味着更强的纠正错误的能力。具有讽刺意味的是,现代计算机用来蚀刻其位的蚀刻到微芯片中的晶体管是如此可靠,以至于纠错的用处不大。但是量子计算机将依赖于纠错,至少在由超导量子比特构成的量子计算机上是这样。(由单个离子组成的量子比特受噪声的影响较小,但更难以集成。)不幸的是,量子力学本身已经证明复制一个量子比特是不可能的。量子不可克隆定理说,如果不改变第一个量子比特的状态,就不可能将它的状态复制到另一个量子比特。谢菲尔德大学的理论家Joschka Roffe说:“这意味着不可能将经典纠错码直接转换为量子纠错码。”更糟糕的是,实验人员无法测量量子叠加态,一旦进行测量,量子叠加态就会塌缩为0或1的量子态。Kuperberg说:“最简单的经典纠错是,通过测量检查发生了什么问题。” “但如果是量子比特,那你必须在不观察的情况下检查错误,但这是不可能的。”虽然量子比特状态翻转很可能就在你眼皮底下发生,我们却不能直接对量子比特进行检测。这些障碍似乎是无法克服的,但是量子力学指出了潜在的解决方案。研究人员无法复制量子比特的状态,但是他们可以使用纠缠的方法将其扩展到其他量子比特。在微波的作用下,原始的量子比特与另一个必须通过“控制非”(CNOT)操作以0状态开始的量子比特进行交互。如果第一个量子比特的状态为1,则CNOT会更改第二个量子比特的状态;如果第一个量子比特的状态为0,则CNOT将保持第二个量子比特的状态不变。但是,该操作实际上并没有测量第一个量子比特并使其状态塌缩。取而代之的是,它在同时更改和不更改第二个量子比特时,保持第一个量子比特的叠加态。这将两个量子比特保持为0和1的叠加态。在常规计算机中,比特是可以设置为0或1的开关。为了保护比特,计算机可以复制它。如果噪声随后使复制比特翻转,则机器可以通过进行奇偶校验测量来发现错误:比较成对的比特以查看它们是相同还是不同。例如,如果原始量子比特处于30%0和70%1的状态,则研究人员可以将其和其它量子比特纠缠,形成三个量子比特的纠缠态,三个量子比特都是30%0和70%1。该状态不同于原始量子比特的三个副本。现在,这三个量子比特是完全相关的:如果测量第一个量子比特并且它塌缩为1,那么其它两个量子比特也必须立即塌缩为1。如果第一个量子塌缩为0,其它量子比特也必须也塌缩为0。这种关联是纠缠的本质。这种操作相当于用三个物理量子比特来表示一个逻辑量子比特。在更大的纠缠状态下,将其它“辅助”量子比特与原来三个量子比特纠缠在一起,一个与第一和第二个量子比特纠缠,另一个与第二和第三个量子比特纠缠。然后,研究人员通过对小导管的测量实现量子力学的奇偶校验。例如,在不破坏纠缠的情况下,噪声可以翻转三个编码量子比特中的任何一个,从而使其0和1状态翻转,改变这三个编码比特之间的潜在相关性。然后研究人员可以对辅助量子比特进行“稳定器”测量以探究这些相关性。尽管测量辅助量子比特使其状态塌缩,但是编码量子比特不会受干扰。Roffe说:“这是经过特殊设计的奇偶校验测量,不会使以逻辑状态编码的信息塌缩。”例如,如果测量结果显示第一辅助量子比特为0,则仅表明第一和第二个编码量子比特必然处于相同状态,而不能表明处于哪个状态。如果测量结果显示第一辅助量子比特为1,则仅表明第一和第二个编码量子比特必然处于相反状态。研究人员可以在量子比特改变状态前使用微波将其翻转回原始状态并恢复其连贯性。如果噪声使其中一个量子比特翻转,研究人员无需实际测量状态就可以检测到这种变化。它们使成对的主量子比特与其他可测量状态的辅助量子比特纠缠在一起,如果一对量子比特之间的相关性保持不变,则辅助比特将为0;如果相关性被翻转,则辅助比特将为1。然后,微波可以使量子比特翻转并恢复初始纠缠状态。这只是量子纠错的基本思想。量子比特的状态比0和1的组合要复杂得多。量子比特的状态还取决于相位,相位的范围可以从0°到360°,这是赋予量子计算机强大功能的波状干涉效应的关键。从量子力学的角度上讲,量子比特状态中的任何错误都可以看作是交换0和1的比特翻转错误和将相位改变180°的相位翻转的某种组合。为了纠正这两种类型的错误,研究人员可以扩展到另一个维度(字面意义上)。三个纠缠的量子比特和两个辅助量子比特是可以检测和纠正位翻转错误的最小阵列。而最简单的三乘三的量子比特和8个辅助量子比特构成的网格阵列,可以检测并纠正比特翻转和相位翻转错误。这时,逻辑量子比特处于九个量子比特的纠缠状态中。沿网格其中一维的稳定器的测量值会检查比特翻转错误,而沿另一维的稳定器的测量值会检查相位翻转错误。二维阵列的实验方案会有所不同,具体取决于量子位的几何排列和稳定器测量的细节。尽管如此,我们也可以总结一下纠错的规律:在物理量子比特的网格中编码单个逻辑量子比特,随着网格尺寸的增加,逻辑量子比特的保真度会变好。研究人员已经在实验上进行探索。在6月8日发表的《自然物理学》研究中,苏黎世联邦理工学院的Andreas Wallraff及其同事证明,他们可以检测到但不能纠正以四个量子比特与三个辅助量子比特组成的逻辑量子比特中的错误。但是还存在艰巨的挑战。IBM的物理学家Maika Takita说,操纵单个量子比特会引入错误,除非错误率降至一定水平以下,否则将更多量子比特与原始量子比特纠缠只会给系统带来更多噪声。她说:“要证明任何事情,错误率都必须低于某个阈值。”辅助量子比特和其他纠错机制会增加更多的噪声,一旦包括这些影响,错误阈值将进一步下降。为了使该方案奏效,研究人员必须将错误率降低到小于1%。原则上,只要满足物理量子比特上的某些阈值条件,就可以任意抑制逻辑错误率。但是,需要进行权衡取舍:量子纠错协议需要大量的量子比特才能有效运行,这将大大增加计算开销。虽然少量的量子比特就已经足以证明量子纠错原理。但在实际中,研究人员必须控制大量的量子比特。为了很好地运行Shor算法,需要非常低的错误率,例如1000个量子比特的量子计算机,需要控制逻辑量子比特的错误率在十亿分之一之内。另外,可能还需要纠缠(entangling)1000个物理量子比特的网格来保障单个逻辑量子比特的安全。而实现这种前景,需要几代更大更好的量子计算芯片。具有讽刺意味的是,想要克服这一问题,那么开发人员需要将水平回退到20年前。在20年前,开发人员为了执行计算所需的各种逻辑操作(即“门”),刚刚开始让成对的物理量子比特相互作用。另外,一旦研究人员开始掌握纠错,他们将不得不用强大且高度复杂的逻辑量子比特重新运行量子计算中目前的每一项发展。Giustina打趣道:“人们认为纠错是量子计算的下一步;其实它是接下来的二十五步”。当然,“重新运行”也并非易事。不仅因为目前涉及两个量子比特的任何逻辑门都需要数千个物理量子比特,而且量子力学的另一个定理指出,并不是所有的逻辑门都可以很容易地从单个物理量子比特转换为扩散逻辑(diffuse logical)量子比特。也有研究人员认为,如果他们能够初始化计算机中的所有量子比特,特别是magic states,那么他们就可以避开这个问题,毕竟magic states或多或少完成了problematic gates的一半工作。不幸的是,可能还需要更多的量子比特来产生这些magic states。正如Roffe所说的那样:“如果你想执行像Shor算法这样的算法,大概90%的量子比特必须用于准备magic states。”因此,一台成熟的量子计算机,如果有1000个逻辑比特,那么它最终可能会包含许多百万个物理量子比特。据说,谷歌计划在10年内建造一台这样的机器,乍一听非常荒谬。毕竟,超导量子比特需要冷却到接近绝对零度,还需要放在一个叫做低温恒温器的装置里,而这个装置的大小能填满一个小房间。另外,一台百万量子比特的机器可能需要将一千个低温恒温器密密麻麻排列在一个大工厂里。针对这一问题,谷歌研究人员表示:他们可以让设备保持紧凑。例如,Neven曾说:“我不想出尔反尔,但我们相信我们已经解决了这个问题。”因为芯片只允许相邻的量子比特相互作用,所以谷歌的方案需要1000个物理量子比特来编码一个逻辑量子比特。如果能让更多远距离的量子比特也进行相互作用的话,那么物理量子比特的所需数量可能会小很多。因此,IBM的研究人员正也在研究一种在量子比特之间进行更远距离互连的方案。开发量子代码并非易事。由于量子不可克隆定理、波函数塌缩以及处理多种错误类型的必要性,使问题变得复杂。稳定器代码为构造量子纠错码提供了约束条件。对于稳定器代码,通过将初始寄存器中的量子信息纠缠在扩展的量子比特空间中来实现量子冗余。然后可以通过执行一系列投射稳定器测量来检测错误,并解释结果以确定最佳恢复操作,以将量子信息恢复到其预期状态。表面编码(surface code)是当前实验中最广泛使用的量子纠错方案。这是由于其具有较高的阈值,并且仅需要最近邻相互作用。然而,表面编码也有缺点,最明显的是其编码密度。我们可以简单地通过缩放量子比特点阵的大小来增加表面代码的距离,但这会导致编码率消失(vanishing code rate),其中编码率被定义为编码的量子比特与物理量子比特之比。表面编码的另一个缺点是需要资源密集型方法来获得通用编码门集。人们已经提出了基于量子比特点阵的不同切片以及对更高尺寸的扩展的表面编码替代方案。这些结构通常具有较低的阈值,但具有其他优势,例如(可能)更容易访问通用编码门集。基于高性能经典代码的原理,人们也正在努力开发不消失编码率的代码结构。但是,对于这些代码,通常需要在代码量子比特之间执行任意的远程交互。2014年发生了一件有趣的事,当时物理学家发现了证据,证明量子纠错与空间、时间和引力的本质之间有着深远的联系。在爱因斯坦的广义相对论中,引力被定义为围绕大型物体弯曲的时空结构(或称“时空”)。加州理工学院的理论物理学家John Preskill说,量子纠错解释了尽管时空是由脆弱的量子物质编织而成的,但时空却是如何实现其“内在鲁棒性”的。这种联系或许也能为实现可扩展量子计算指明道路。没有人愿意预测我们需要多长时间才能掌握“纠错”,但目前是认真考虑这个问题的时候了,毕竟,到目前为止,所有自认为是“纠错”研究者的学者都是理论家。必须让量子纠错成为一个实验性的领域,用真实的实验数据进行反馈。所以,显然在量子计算领域,纠错是下一个热点。https://www.sciencemag.org/news/2020/07/biggest-flipping-challenge-quantum-computinghttps://arxiv.org/pdf/1907.11157.pdfhttps://www.quantamagazine.org/how-space-and-time-could-be-a-quantum-error-correcting-code-20190103/
雷锋网雷锋网雷锋网
雷峰网原创文章,未经授权禁止转载。详情见转载须知。