面向模块化架构的可扩展量子编译:通过深度强化学习实现量子比特映射与复用
模块化量子架构通过连接多个“量子处理器”(Quantum Processing Units,QPUs),已成为扩展量子计算系统规模的一种可行方案。然而,该方法因芯片间核心操作与量子态传输的高成本而面临重大挑战,这些操作会引入噪声并导致量子退相干。本文提出QARMA——一种基于注意力机制深度强化学习的模块化架构量子比特映射方案,其扩展版QARMA-R还具备动态量子比特复用能力。该团队将基于注意力机制的框架与图神经网络(GNN)相结合,以学习能最小化核心间通信的最优量子比特分配、路由及复用策略。其创新点在于:(1)采用基于Transformer的编码器捕捉全局电路结构与局部量子比特交互;(2)动态量子比特复用编译机制,利用电路运行中的测量与重置操作降低跨操作需求。实验结果表明:相较模块化架构配置的优化版Qiskit,QARMA-R将核心间通信降低达100%(平均85%),而未复用场景下的QARMA对大型电路仍保持15-40%的优化;与传统模块化量子比特映射方案相比,核心间操作减少96.4-100%。该方法推动了量子电路编译技术的发展,使受限资源下的模块化量子系统能运行更复杂算法,为可扩展量子计算架构研究作出贡献。
