通过前向和后向门融合实现快速且内存高效的量子机器学习经典模拟

近年来,虽然真实量子设备被越来越多地用于以实现量子优势或量子效用为目标的研究,但在当前噪声中等规模量子(NISQ)设备上执行深度量子线路或处理大规模数据的量子机器学习仍然具有挑战性,这使得经典模拟成为量子机器学习研究不可或缺的手段。然而,经典模拟往往受限于梯度计算的高昂成本,需要消耗巨大的内存或计算时间。本文针对这些问题,提出了一种在正向和反向传播路径中分别融合多个连续量子门的方法,通过最小化全局内存访问来提升计算吞吐量。实验结果表明,该方法在12量子位及以上的硬件高效拟设(Hardware-Efficient Ansatz)中实现了约20倍的吞吐量提升,在内存带宽受限的中端消费级GPU上甚至获得超过30倍的加速效果。通过将所提方法与梯度检查点技术相结合,研究人员成功将内存占用大幅降低,使得训练包含20量子位、1,000层结构和60,000个参数的大规模量子机器学习模型成为可能——仅需约20分钟即可完成1,000个样本的训练。这意味着该团队能够在现实时间范围内(例如每轮20小时)完成MNIST、CIFAR-10等包含数万样本的大规模数据集训练。由此,该工作提出的方法显著加速了量子机器学习的经典模拟进程,为量子机器学习研究和变分量子算法(如大规模数据集算法验证、深量子线路贫瘠高原等学习理论探究)作出了重要贡献。

作者单位: VIP可见
提交arXiv: 2026-03-03 09:43

量科快讯