用量子神经网络提炼知识

量子神经网络(QNNs)是一类具有前景的量子机器学习模型,在可扩展、具备纠错能力的量子计算机上实现时可能展现量子优势。但随着系统规模扩大,QNNs的部署面临挑战。与传统神经网络类似,其实际应用的主要障碍在于:大规模QNNs难以在资源有限的小型系统上部署。该研究团队通过知识蒸馏技术应对这一挑战,展示了如何将大系统上训练良好的QNNs压缩至具有相似架构的小型系统中。数值实验表明,知识蒸馏能有效降低QNNs在量子比特数量和电路深度方面的训练成本。此外,研究人员发现自知识蒸馏方法可加速训练收敛。该工作成果为QNNs的高效压缩与实用化部署提供了新策略。
作者单位: VIP可见
提交arXiv: 2026-03-23 05:30

量科快讯