利用低深度电路和机器学习对标准读取误差缓解方法的个性化改进

量子计算机在优化多领域算法方面展现出潜力。然而,这些进展的实现受到噪声和高错误率的限制——这一现象在系统规模扩大时尤为突出。目前研究人员已采用矩阵求逆、解卷积和深度学习等误差缓解技术来降低错误率,但这些方法无法完整反映量子设备的全部门集合性能,且可能需要根据距离上次校准的时间进行额外调校。 该工作提出了一种改进数值读出误差校正技术的方法,通过从低深度电路集合中获取的实测概率分布数据来进一步优化读出误差模型。研究团队采用机器学习技术增强量子系统的读出误差模型,并使用Qiskit在模拟的IBM Perth后端上测试了这些电路。实验数据显示:对于一个7量子比特、电路深度为4的系统,相较于标准误差缓解方法,该方案实现了保真度中位数提升6.6%、均方误差降低29.9%、海林格距离优化10.3%的效果。随着对这些误差缓解技术的持续优化,人类距实现容错量子计算时代又近了一步。

量科快讯