基于GNN的QEC解码器是否需要经典知识?评估从MWPM中进行知识蒸馏的效果
量子纠错(QEC)中解码器的性能是实现实用量子计算机的关键。近年来,图神经网络(GNNs)已成为一种前景广阔的解决方案,但其训练方法尚未完善。学界普遍认为,将经典算法(如最小权重完美匹配/MWPM)的理论知识迁移至GNN的“知识蒸馏”技术可有效提升性能。该工作通过严格比较两种基于图注意力网络(GAT)架构的模型验证这一假设:其一时序信息作为节点特征的纯数据驱动模型(基线),其二则融合了基于MWPM理论错误概率的知识蒸馏损失函数。基于谷歌公开实验数据的评估表明,尽管知识蒸馏模型的最终测试准确率与基线几乎相同,但其训练损失收敛速度更慢,且训练时间增加约五倍。这一结果表明,现代GNN架构具备直接从真实硬件数据中高效学习复杂误差关联的强大能力,无需近似理论模型的指导。
