用于量子噪声降低的机器学习
量子噪声从根本上限制了近期量子设备的实用性,使得误差缓解成为实现实用量子计算的关键。传统量子纠错码需要大量量子比特开销和复杂的症状解码,而该研究团队提出了一种机器学习方法,可直接从含噪声密度矩阵重建纯净量子态,无需额外量子比特资源。研究人员将量子噪声抑制问题构建为监督学习任务,采用具有创新性保真度感知复合损失函数的卷积神经网络(CNN)自编码器架构。该方法在包含10,000个随机5比特量子电路生成的综合密度矩阵数据集上进行训练和评估,涵盖五种噪声类型(去极化、振幅阻尼、相位阻尼、比特翻转及混合噪声)和四个强度等级(0.05-0.20)。实验表明,该CNN模型可成功重构所有噪声条件下的量子态,将平均保真度从0.298提升至0.774(提升幅度达0.476)。值得注意的是,该方法在复杂混合噪声场景和更高噪声强度下表现尤为优异,其中混合噪声校正后保真度最高(0.807),提升幅度最大(0.567)。该技术能同时有效保持密度矩阵对角元(粒子数占据)与非对角元(量子相干性),因此适用于依赖纠缠的量子算法。虽然相位阻尼存在信息论层面的根本性限制,但研究结果显示:对于NISQ时代的量子设备,基于CNN的密度矩阵重构相比传统量子纠错提供了更具资源效率的替代方案。这种数据驱动方法有望以比传统纠错方案更少的物理量子比特实现实用量子优势。
