90后山东小伙一作登Nature封面!硅量子比特里程碑达成,保真度超99%

共 3944字,需浏览 8分钟

 ·

2022-01-23 10:31



  新智元报道  

编辑:David 好困

【新智元导读】近日,量子计算再获重大突破,硅基量子门的保真度突破99%,超过容错阈值!Nature为此在封面上连刊三文。
 
最新一期的Nature封面又出炉了!
 
和以往不太一样,这次是论文「三连发」。
 
而作者们提出的方法都让硅量子计算的保真度达到99%以上,超过了容错阈值。
 
或许,基于硅的量子计算机也即将成为可能。
 

 
在此之前,众多的量子比特平台中,只有超导电路、离子陷阱和钻石中的氮-空位中心能够让保真度超过99%的纠错阈值。
 
而硅中的电子自旋量子比特由于操作缓慢,双量子比特门的保真度一直被限制在98%以内。
 
「Quantum logic with spin qubits crossing the surface code threshold」的一作是Xiao Xue,来自代尔夫特理工大学。
 
论文链接:https://www.nature.com/articles/s41586-021-04273-w
 
作者使用由硅和硅锗合金堆栈形成的材料创造了一个双量子比特系统,其中量子信息被编码在限制于量子点的电子自旋中。
 
结果显示,单量子比特保真度为99.87%,双量子比特的保真度为99.65%,均在99.5%以上。加入相邻量子比特的串扰和空转误差后,平均单量子比特门的保真度仍然高于99%。
 
 
「Fast universal quantum gate above the fault-tolerance threshold in silicon」一作Akito Noiri,来自日本理化学研究所新兴物质科学中心。
 
论文链接:https://www.nature.com/articles/s41586-021-04182-y
 
作者通过使用微磁体诱导的梯度场和可调整的双量子比特耦合的快速电控制,证明了硅自旋量子比特的双量子比特门的保真度可以达到99.5%,而单量子比特的保真度更是高达99.8%。
 
研究结果首次使自旋量子比特在通用量子控制性能方面与超导电路和离子陷阱相抗衡。
 
 
「Precision tomography of a three-qubit donor quantum processor in silicon」,一作Mateusz T. Mądzik,同样来自代尔夫特理工大学。共同一作Serwan Asaad,来自哥本哈根大学尼尔斯·玻尔研究所。
 
论文链接:https://www.nature.com/articles/s41586-021-04292-7
 
作者提出了在硅纳米电子器件中使用一对离子注入的磷供体核执行通用量子逻辑运算。
 
利用量子门集层析成像(GST)对量子操作进行验证后发现,单量子比特的保真度高达99.95%,双量子比特的保真度为99.37%,双量子比特准备/测量保真度为98.95%。
 
此外,通过产生一个保真度为92.5%的Greenberger-Horne-Zeilinger三量子比特状态,还可证明两个核和共享电子之间的纠缠。
 
 

量子纠错


量子计算系统的基本思想是,量子比特能够处于一种不仅仅是「1」或「0」的状态,而是某种称为「叠加态」的组合。这意味着两个量子比特可以处于「01」、「10」、「11」和「00」的叠加状态,从而可以表示更多的状态和数据。
 
这种特征可用于某些超复杂计算的加速,经典计算机无法在可接受的时间内完成这类计算。比如用于超大数的质因数分解的Shor算法,以及用于材料科学和药物设计的其他算法。
 
建造大型、可操作的量子计算机是一项极其雄心勃勃、又非常困难的技术任务。目前,应用最广泛的量子比特系统是由 IBM 和谷歌等科技巨头在其量子处理器中使用的超导电路制成的。
 
 
目前,这些量子系统已经实现了重要的计算任务演示。谷歌表示,目前该公司的超导量子设备只需要大约200秒来执行计算,而相同的任务,经典超算则需要花费10000年。
 
不过目前这些超导量子系统相对较大,很难安装在单个冷却系统中的单个芯片上,也很难扩展到更大的设备中。
 
另一个问题是,它们只能在很有限的时间内保持给定的叠加态,这一时间长度称为「相干时间」。相干时间受限会导致量子比特执行的计算中容易出现错误,需要开发纠错协议来减少这些错误,目前的纠错基本上是通过增加量子比特的数量,通过冗余来实现的。
 
研究人员提出一种超导量子比特的替代方案:电子自旋量子比特。
 
这种方案基于电子自旋的量子性质,相干时间较长。在该方案中,将量子比特通过一种机制形成,将单个电子与其环境隔离,确保其可访问性,并且仍可通过外加的电磁场进行控制。
 
最常见的方法是使用量子点,它是在两种半导体材料的界面处形成的微小陷阱。可以通过使用金属引线来设计多个量子点来创建单独的陷阱,每个陷阱都可以容纳一个电子。
 
用于纠错的量子比特系统示意图。(左)通过定位两个电子实现了「双量子比特门」,使它们的量子力学波函数重叠到一定的程度,作为量子点之间的屏障。(右)通过使用磷原子核实现了类似的目标。原子核之间的相互作用是由微波天线控制的电子介导的。
 
这些量子比特是在硅异质结构中制造的,该结构由夹在其他半导体之间的硅层组成,并由金属导线控制。
 
两个研究团队通过定位两个电子,使它们的量子力学波函数(电子的空间范围)重叠到一定程度,由作为量子点之间的屏障的电场来控制,从而实现双量子比特门。
 
另一个团队则使用磷原子核实现了类似的目标。原子核之间的相互作用是由微波天线控制的电子介导的。
 
在自旋量子比特的制备材料上,三个团队均选择了硅。这主要是因为硅可以被同位素纯化,它的绝大多数原子不会发生与其原子核相关的净自旋。这种自旋将与量子比特相互作用,导致量子信息的丢失。
 
此外,硅是用于计算机电路的常见材料,可以更加充分地利用现有纳米电子基础设施。
 
与经典计算中使用逻辑门类似,量子计算系统中也需要使用量子比特逻辑门。后者可以通过磁场产生,但是电子自旋和磁场的相互作用很弱。相比之下,用电场控制电子运动与自旋实现耦合,可以更快地实现控制。
 
 
在双量子比特的门中,两个电子靠得很近,以至于量子力学波函数是重叠的。这种重叠产生了有效的自旋-自旋相互作用,如果加以小心控制,会导致量子比特的「纠缠」,即共享一个共同的状态,不再可以独立描述。一个量子比特的状态变化取决于另一个量子比特的状态。
 
这种精确条件下的操作准确性有一个度量,称为「保真度」,它需要满足量子纠错策略可行的最小阈值。以Xiao Xue和Noiri为第一作者的两个团队,都实验中成功实现了这一里程碑。
 
以Mądzik为第一作者的另一个团队,通过利用磷原子的核自旋取得了类似的进展,磷原子取代硅晶格中的硅原子。这一方案的核自旋具有极长的相干时间。
 
过去,引导核自旋之间相互作用,实现精确操作的方法一直很少。Mądzik等人使用电子介导两个核自旋之间的相互作用,生成高保真度的双量子比特纠缠门,成功将核自旋量子比特操作的准确性提高到量子纠错阈值水平之内。
 
三个团队的研究结果,都使基于硅的量子信息处理更接近于一个可行的量子计算平台。
 
然而,在可扩展性上仍有挑战需要克服。一个关键问题是,当系统的规模增加时,即使是单个量子比特,其校准、基准测试和保真度都会受到负面影响。
 
下一步,研究人员的目标将是构建一个更大的量子点阵列,承载两个量子比特门,同时保真度不保持现有的高水平。


作者介绍

 
Xiao Xue目前在代尔夫特理工大学攻读博士学位。
 
 
1992年出生于山东,2014年在中国科技大学凝聚态物理专业获得应用物理学学士,2014年-2016年在清华大学交叉信息研究院量子信息中心进行研究生学习。
 
 
Xiao Xue的师兄Mateusz Mądzik,目前在代尔夫特理工大学从事博士后研究。
 
 
此前于2014年在波兰的华沙理工大学获得了电子工程学士学位,于2016年在阿布扎比的马斯达尔研究所获得了微系统工程的硕士学位,随后于2020年在悉尼的新南威尔士大学获得博士学位。
 
值得一提的是,他研究了核自旋冻结引起的退相干效应,并证明了与两个磷供体结合的电子自旋之间的两个量子比特门,以及在一个单独的实验中,在一个双供体簇中的核自旋之间的量子比特门。

Mateusz Mądzik论文的共同一作Serwan Asaad,目前在哥本哈根大学从事博士后研究。
 
2013年在乌特勒支大学获得学士学位,并同时完成了物理学学士课程和数学学士课程,2015年在代尔夫特理工大学获得硕士学位,2019年在澳大利亚新南威尔士大学获得博士学位。


参考资料:

https://www.nature.com/articles/s41586-021-04273-w

https://www.nature.com/articles/s41586-021-04292-7

https://www.nature.com/articles/s41586-021-04182-y

https://www.nature.com/articles/d41586-022-00047-0

本文部分引用以下文章的技术介绍:

http://tech.china.com.cn/hydt/20220120/384411.shtml


AEB测试「霸榜」!理想如何靠全栈自研逆袭成功?


元宇宙要革了AI的命!奇点爆发第二年,新智元寻找「星舰」领航者



浏览 25
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报