2024年12月9日,《Nature》杂志发表了一篇引发量子计算领域震动的论文。来自Google量子AI团队的研究人员宣布,他们首次在超导量子处理器上实现了"低于表面码阈值"的量子纠错。这看起来只是一组技术参数的改进,却标志着量子计算从"能跑"到"能用"的关键转折。
论文的核心数据令人印象深刻:在一个拥有105个量子比特的超导处理器上,研究团队实现了码距为7的表面码。当码距从3增加到5再到7时,逻辑量子比特的错误率被依次压低了约一半。更关键的是,这个逻辑量子比特的寿命达到了291微秒,超过了构成它的所有物理量子比特中最优秀那个的两倍。
这个突破的意义需要放在三十年技术演进的背景下才能完全理解。1995年,当Peter Shor提出第一个量子纠错码时,没人知道这条路最终能否走通。问题不在于理论——理论是完备的。问题在于工程:量子纠错要求物理量子比特的错误率低于一个"阈值",而这个阈值在早期的量子纠错码中低得令人绝望——0.01%。
量子比特为何比经典比特脆弱一万倍
理解量子纠错的困境,首先要理解量子比特与经典比特的本质区别。
经典比特只有两种状态:0或1。你可以把一个经典比特复制一百万份,即使其中几千份出了错,统计剩余的仍然能得到正确答案。这是经典纠错的基本逻辑——重复与多数表决。
量子比特完全不同。一个量子比特可以是 $|0\rangle$ 和 $|1\rangle$ 的任意叠加:
$$|\psi\rangle = \alpha|0\rangle + \beta|1\rangle$$其中 $|\alpha|^2 + |\beta|^2 = 1$。这个叠加态是量子计算力量的源泉,也是它的阿喀琉斯之踵。
首先,你无法复制它。量子力学的No-Cloning定理明确禁止了任意量子态的复制。这不是技术限制,而是原理性禁令。当你试图测量一个量子态来"读取"它的信息时,叠加态会坍缩——你只能得到 $|0\rangle$ 或 $|1\rangle$,而 $\alpha$ 和 $\beta$ 的精确值永远丢失了。
其次,量子态与环境的相互作用会迅速破坏叠加。这个过程叫退相干。描述量子比特质量的两个核心参数——T1和T2时间——直接反映了这种脆弱性。
graph LR
subgraph "量子态退化过程"
A["初始态: α|0⟩ + β|1⟩"] --> B{T1弛豫}
A --> C{T2退相干}
B --> D["|0⟩ 基态"]
C --> E["相位随机化"]
end
style A fill:#98fb98
style D fill:#ffa07a
style E fill:#ffa07a
T1时间是能量弛豫时间:量子比特从激发态 $|1\rangle$ 衰变到基态 $|0\rangle$ 的特征时间。想象一个放在山顶的球,它迟早会滚下来——环境的热噪声会"偷走"量子比特的能量。
T2时间是相位相干时间:量子比特保持叠加相位的能力。即使能量没有损失,与环境的相互作用也会扰乱相位关系。一个原本是 $\frac{1}{\sqrt{2}}(|0\rangle + |1\rangle)$ 的态,可能在T2时间后变成 $\frac{1}{\sqrt{2}}(|0\rangle - |1\rangle)$——在量子计算中,这是完全不同的逻辑值。
gantt
title 量子比特相干时间对比
dateFormat X
axisFormat %s
section 超导量子比特
T1时间 (Willow) : 0, 68
section 离子阱量子比特
T1时间 : 0, 1000
section 理论需求
容错计算阈值 : 0, 10000
Google的Willow处理器将T1时间从之前Sycamore处理器的约20微秒提升到了68微秒。这个看似普通的数字代表了材料科学、超导电路设计和微纳加工技术的巨大进步。在超导量子比特中,主要噪声来源包括:准粒子激发、两能级系统缺陷、磁通噪声、以及电荷噪声。抑制这些噪声需要从材料纯度、电路几何设计、到制造工艺的全方位优化。
当"纠错"本身引入更多错误
量子纠错的核心悖论在于:纠错过程本身也会引入错误。
在经典计算中,你可以直接检查一个比特的值,发现错误后直接翻转回来。但在量子世界,你不能直接测量——那会破坏量子态。你只能间接地"诊断"错误,通过一些巧妙的测量设计。
这就带来了一个两难。为了检测错误,你需要进行量子门操作和测量,而这些操作本身就有错误率。更糟糕的是,参与纠错的量子比特越多,引入额外错误的机会就越多。
这引出了量子纠错的中心概念——阈值定理。
阈值定理说的是:如果物理量子比特的错误率低于某个临界值(阈值),那么通过增加参与纠错的物理量子比特数量,可以指数级地降低逻辑量子比特的错误率。数学表达为:
$$\varepsilon_d \approx A \left(\frac{p}{p_{thr}}\right)^{(d+1)/2}$$其中 $d$ 是码距(code distance),$p$ 是物理错误率,$p_{thr}$ 是阈值,$\varepsilon_d$ 是逻辑错误率。当 $p < p_{thr}$ 时,增大 $d$ 会指数级降低 $\varepsilon_d$。
graph TD
subgraph "阈值定理示意图"
A["物理错误率 p"] --> B{p < p_thr?}
B -->|是| C["增加码距 d"]
C --> D["逻辑错误率指数下降 ✓"]
B -->|否| E["增加码距 d"]
E --> F["逻辑错误率反而上升 ✗"]
end
style D fill:#90ee90
style F fill:#ff6b6b
但反过来,如果 $p > p_{thr}$,增加更多量子比特只会让事情更糟——纠错引入的错误会超过它纠正的错误。
阈值的高低直接决定了量子纠错的可行性。阈值越高,对物理量子比特质量的要求就越低,工程上越容易实现。
从Shor码到表面码:阈值的一百倍跃迁
1995年,Peter Shor在论文《Scheme for reducing decoherence in quantum computer memory》中提出了第一个量子纠错码——后来被称为Shor码。
Shor码使用9个物理量子比特来编码1个逻辑量子比特。它的设计非常优雅:将三量子比特比特翻转码嵌套进三量子比特相位翻转码。比特翻转错误 $|0\rangle \leftrightarrow |1\rangle$ 和相位翻转错误 $|+\rangle \leftrightarrow |-\rangle$ 都能被纠正。
graph TD
subgraph "Shor码嵌套结构"
A["逻辑量子比特 |ψ_L⟩"] --> B["相位翻转码层"]
B --> C["|0_L⟩ → |+++⟩"]
B --> D["|1_L⟩ → |−−−⟩"]
C --> E["比特翻转码层"]
C --> F["比特翻转码层"]
C --> G["比特翻转码层"]
D --> H["比特翻转码层"]
D --> I["比特翻转码层"]
D --> J["比特翻转码层"]
E --> K["物理量子比特 1-3"]
F --> L["物理量子比特 4-6"]
G --> M["物理量子比特 7-9"]
end
style A fill:#ffd700
style K fill:#87ceeb
style L fill:#87ceeb
style M fill:#87ceeb
问题在于阈值。Shor码要求每个量子门操作的错误率低于约0.01%。在1995年,最好的量子门操作错误率高达几个百分点——差了三个数量级。
Andrew Steane在1996年独立提出了另一个量子纠错码——Steane码,使用7个物理量子比特编码1个逻辑量子比特。Steane码属于CSS码(Calderbank-Shor-Steane码)家族,同样面临高阈值的困境。
转折点出现在1997年。俄罗斯物理学家Alexei Kitaev访问加州理工学院,与John Preskill讨论量子计算问题。Kitaev提出了一个全新的量子纠错方案——表面码(Surface Code)。
表面码的核心思想是利用拓扑性质来保护量子信息。将量子比特排列在二维网格上,一类量子比特存储数据(数据量子比特),另一类量子比特进行辅助测量(测量量子比特)。通过反复测量局域的稳定子(stabilizer)算符,可以间接地检测错误。
graph TD
subgraph "表面码晶格结构"
M1["测量Q(类型X)"] --- D1["数据量子比特"]
D1 --- M2["测量Q(类型Z)"]
M2 --- D2["数据量子比特"]
D2 --- M3["测量Q(类型X)"]
D1 --- M4["测量Q(类型Z)"]
D2 --- M5["测量Q(类型Z)"]
end
style D1 fill:#ffd700
style D2 fill:#ffd700
style M1 fill:#dc143c
style M2 fill:#4169e1
style M3 fill:#dc143c
style M4 fill:#4169e1
style M5 fill:#4169e1
表面码的最大优势在于阈值。2006年,研究人员证明优化后的表面码阈值可以达到约1%——比早期量子纠错码高出100倍。
为什么表面码的阈值这么高?有几个关键原因:
局域性:表面码只需要近邻量子比特之间的相互作用。这意味着不需要长距离的量子比特耦合,降低了控制复杂度和串扰风险。
容错测量:稳定子测量可以容忍测量错误。即使单次测量出错了,多次测量的统计结果仍能正确诊断错误。
简单的解码:诊断错误只需要求解一个经典的图匹配问题(最小权重完美匹配),可以在经典计算机上高效完成。
表面码的另一个特点是开销大。一个码距为 $d$ 的表面码需要 $2d^2 - 1$ 个物理量子比特来编码1个逻辑量子比特。码距7的表面码就需要97个物理量子比特。如果需要更高的逻辑比特质量,还需要更大的码距。
graph LR
subgraph "码距与量子比特需求"
D3["码距=3"] --> Q17["17个物理量子比特"]
D5["码距=5"] --> Q49["49个物理量子比特"]
D7["码距=7"] --> Q97["97个物理量子比特"]
D9["码距=9"] --> Q161["161个物理量子比特"]
end
style D3 fill:#98fb98
style D5 fill:#87ceeb
style D7 fill:#dda0dd
style D9 fill:#f0e68c
2024:阈值终于被突破
从理论到实验的距离,往往比想象的更远。
2013年,John Martinis的团队在加州大学圣塔芭芭拉分校开始认真推进表面码实验。他们与理论物理学家Austin Fowler合作,制定了详细的工程路线图:将超导量子比特的门错误率从几个百分点逐步降低到0.1%以下。
这是一条漫长的路。超导量子比特的制造涉及薄膜沉积、光刻、刻蚀等一系列微纳加工步骤。每一个工艺环节的优化都可能带来错误率的改善。从2013年到2024年,这个方向持续了十一年。
Google在2019年发布的Sycamore处理器展示了量子优势——在特定任务上超越经典计算机。但Sycamore的单量子比特门错误率约0.1%,双量子比特门错误率约0.5%,距离表面码阈值仍有差距。
Willow处理器的突破在于将错误率进一步压低。根据论文数据:
- 单量子比特门错误率:中位数约0.035%
- 双量子比特门(CZ门)错误率:中位数约0.33%
- 测量错误率:中位数约0.38%
- 量子比特T1相干时间:平均68微秒
这些数字看起来并不惊人,但它们的组合使得表面码实验首次突破了阈值。关键数据是错误抑制因子 $\Lambda$:
$$\Lambda = \frac{\varepsilon_d}{\varepsilon_{d+2}} \approx 2.14 \pm 0.02$$这意味着码距每增加2,逻辑错误率就下降约一半。当码距从3增加到7时,逻辑错误率从约2.3%下降到约0.143%每周期。
graph LR
subgraph "Willow错误抑制效果"
A["码距=3<br/>逻辑错误率~2.3%"] -->|Λ≈2.14| B["码距=5<br/>逻辑错误率~1.1%"]
B -->|Λ≈2.14| C["码距=7<br/>逻辑错误率~0.143%"]
end
style A fill:#ff6b6b
style B fill:#ffd93d
style C fill:#6bcb77
更直观的比较是寿命。码距7的逻辑量子比特寿命为291微秒,而构成它的物理量子比特中最优秀的也只有119微秒。这是首次有逻辑量子比特"超越"其物理组成——量子纠错真正开始工作了。
三条技术路线的竞速
量子纠错的突破不只发生在超导平台。
2024年4月,Quantinuum公司的离子阱量子计算团队报告了另一个里程碑:在H2量子处理器上实现了逻辑量子比特的容错传输。他们使用了高达30个囚禁离子作为物理量子比特,实现了实时的量子纠错解码。
离子阱平台有其独特优势。囚禁离子可以被激光精确操控,双量子比特门保真度可以达到99.9%以上——“三个9”。这比超导平台高一个数量级。离子阱的相干时间也更长,通常在秒级甚至分钟级。
但离子阱也有劣势。门操作速度慢,通常在毫秒量级,比超导平台慢了三个数量级。这意味着完成同样计算需要更长时间,而更长的计算时间意味着更多机会让错误累积。
中国的超导量子计算团队也在2024年报告了重要进展。深圳量子科学与工程研究院俞大鹏院士领导的研究团队,在基于表面码的量子纠错领域取得了突破。他们使用17个量子比特实现了表面码的重复纠错,部分媒体报道称其"比谷歌更早突破量子纠错盈亏点"。
不同技术路线各有权衡:
graph TD
subgraph "量子计算平台对比"
A["超导量子比特"] --> A1["门速度: ~10纳秒"]
A --> A2["保真度: ~99.6%"]
A --> A3["相干时间: ~100微秒"]
A --> A4["可扩展性: 较好"]
B["离子阱量子比特"] --> B1["门速度: ~毫秒"]
B --> B2["保真度: ~99.9%"]
B --> B3["相干时间: ~秒"]
B --> B4["可扩展性: 挑战大"]
end
style A fill:#4ecdc4
style B fill:#ff6b6b
超导平台速度快、易扩展,但错误率高、相干时间短。离子阱平台错误率低、相干时间长,但速度慢、扩展难。两种路线都没有绝对优势,量子纠错的实现需要针对各自特点进行优化。
还有多远的路要走
Willow的突破令人鼓舞,但从能纠错的量子比特到实用的量子计算机,仍有巨大鸿沟。
首先是开销问题。当前物理量子比特的错误率约0.3%,要实现逻辑错误率 $10^{-6}$(一个常用目标),需要码距约27的表面码,即约1457个物理量子比特编码1个逻辑量子比特。运行Shor算法分解2048位整数估计需要数百万个逻辑量子比特——这意味着需要数十亿个物理量子比特。
其次是相关错误问题。量子纠错理论假设错误是独立的、随机的。但实际系统中存在各种相关错误来源:高能粒子撞击会导致大量量子比特同时出错;量子比特之间的寄生耦合会导致串扰;泄露到高能级的错误会在电路中传播。
Google团队在重复码实验中发现,约每小时会发生一次"错误爆发"事件——大量量子比特同时出现异常。这些事件的来源尚未完全理解,可能是某种未知的相关噪声源。这种相关错误设置了逻辑错误率的"底线",约 $10^{-10}$,比理论预期高出很多。
第三是实时解码的挑战。纠错需要实时解释测量结果并做出正确决策。对于超导量子比特,每个纠错周期只有约1微秒,解码器必须在这个时间内完成计算。Willow团队实现了平均63微秒的解码延迟,这已经非常出色,但对于某些量子操作(如非Clifford门),这个延迟可能还不够。
graph TD
subgraph "从实验室到应用的挑战"
A["当前状态<br/>逻辑错误率~0.1%"] --> B["挑战1: 开销"]
A --> C["挑战2: 相关错误"]
A --> D["挑战3: 实时解码"]
B --> E["需要降低<br/>3-4个数量级"]
C --> F["理解并消除<br/>相关噪声源"]
D --> G["解码延迟<br/><1微秒"]
E --> H["目标状态<br/>逻辑错误率<10^-12"]
F --> H
G --> H
end
style A fill:#ff6b6b
style H fill:#6bcb77
新方向的探索
面对这些挑战,研究者们正在探索多个新方向。
量子LDPC码是一个热门方向。LDPC(Low-Density Parity-Check)码在经典通信中已被广泛使用。量子LDPC码承诺更低的量子比特开销和更高的阈值。2024年3月,《Nature》发表的研究展示了一种量子LDPC码,相比表面码可以显著减少物理量子比特需求。
**猫量子比特(Cat Qubits)**采用不同的策略。法国公司Alice & Bob开发的这种量子比特将信息编码在谐振腔的相干叠加态中。猫量子比特天然地对一种类型的错误(比特翻转)有很强的抑制能力,因此只需要针对另一种错误(相位翻转)进行纠错,大大简化了系统。
拓扑量子计算是最激进的思路。Kitaev提出的拓扑量子计算试图在硬件层面实现纠错——通过设计拓扑保护的量子态,使错误无法局域地产生。微软的Majorana零模实验就是这个方向的努力。如果能成功,可能实现"天生容错"的量子比特,但这需要全新的物理材料。
timeline
title 量子纠错技术演进
1995 : Shor码提出 (阈值~0.01%)
1996 : Steane码
1997 : 表面码概念 (Kitaev)
2006 : 表面码阈值证明 (~1%)
2013 : Martinis团队启动工程攻关
2019 : Sycamore量子优势展示
2024 : Willow突破阈值
: Quantinuum离子阱突破
: 中国团队表面码进展
三十年后,隧道尽头的光
回望1995年Peter Shor提出第一个量子纠错码的时刻,量子计算还是一个边缘学科。大多数物理学家认为实用的量子计算机不可能实现——量子态太脆弱,噪声太大,纠错太困难。
三十年后,情况完全不同。Google的Willow、Quantinuum的离子阱、中国的超导量子比特,三条技术路线都在2024年报告了突破。阈值被突破了,量子纠错从理论变成了现实。
但这是一场马拉松的起点,不是终点。当前的逻辑量子比特错误率约0.1%,而实用量子计算需要 $10^{-12}$ 或更低——还有十个数量级要走。每个数量级的进步都需要工程上的巨大努力。
也许最重要的启示是:量子纠错不是魔法,它是一项工程。通过降低物理错误率、优化纠错码设计、改进解码算法,我们一步一步地逼近目标。这条路漫长而艰难,但已经有人走到了隧道尽头,看到了光。
参考文献
- Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024).
- Shor, P. W. Scheme for reducing decoherence in quantum computer memory. Physical Review A 52, R2493 (1995).
- Steane, A. M. Error correcting codes in quantum theory. Physical Review Letters 77, 793 (1996).
- Kitaev, A. Y. Quantum computations: algorithms and error correction. Russian Mathematical Surveys 52, 1191 (1997).
- Fowler, A. G., et al. Surface codes: Towards practical large-scale quantum computation. Physical Review A 86, 032324 (2012).
- Quantinuum. High-fidelity and Fault-tolerant Teleportation of a Logical Qubit. arXiv:2404.16728 (2024).
- 钟有鹏等. 基于表面码的量子纠错实验进展. 深圳量子科学与工程研究院 (2024).
- Gottesman, D. An Introduction to Quantum Error Correction and Fault-Tolerant Quantum Computation. arXiv:0904.2557 (2009).
- Preskill, J. Quantum Computing in the NISQ era and beyond. Quantum 2, 79 (2018).
- Bravyi, S., Cross, A. W., et al. High-threshold and low-overhead fault-tolerant quantum memory. Nature 627, 778-782 (2024).