GPU加速的稳定子电路量子模拟
该研究团队提出了一套新型并行算法,用于在GPU上高效模拟稳定子(克利福德)电路,其核心创新在于数据并列表演化技术与可扩展的投影测量处理方法。通过将稳定子模拟中的关键瓶颈(如高斯消元与测量更新)重构为适配GPU架构的并行原语,该工作成功消除了顺序依赖性并实现了内存访问的最大化合并。这些技术被集成至QuaSARQ——一个专为大比特数、多采样场景设计的GPU加速稳定子模拟器中。 在涵盖18万个量子比特、电路深度达1000层(约1.3亿个量子门)的基准测试中,QuaSARQ展现出显著性能优势:最高可实现105倍加速,且在复杂实例中能耗降低超80%。该系统持续优于当前CPU优化的顶尖稳定子模拟器Stim,以及Qiskit-Aer(CPU/GPU)、Qibo、Cirq和PennyLane等平台。特别值得注意的是,QuaSARQ在大规模多采样任务中表现出突出优势。这些成果证明,该团队提出的并行算法能显著提升稳定子电路模拟的可扩展性,尤其适用于包含大量测量与采样的工作负载。
量科快讯
11 小时前
1 天前
1 天前

