高效流体量子模拟的近似哈密顿仿真算法

该工作旨在解决量子流体哈密顿模拟中由标准量子傅里叶变换和动量算符演化导致的硬件资源限制与退相干误差瓶颈问题,这些问题会引发过深的电路层数和过多的双量子比特门操作。研究人员提出了一种近似算符优化方案,致力于降低哈密顿演化过程中的电路深度。通过消除O(n²)冗余的双量子比特纠缠门,该方案成功将模拟电路深度从O(n²)降至O(n log n)甚至O(n)。该研究在面向超算的量子模拟器上实现了数值实验,模拟了二维非定常发散流动。实验结果表明:尽管高频量子比特耦合项的截断会引入确定性理论误差(AQFT截断误差为O(n)量级,动量截断误差为O(n²)量级),但在10量子比特模拟中,优化后的方案成功保留了流体固有的宏观时间演化特征,其密度分布、x方向动量分布和y方向动量分布的相关系数分别达到r=0.933、r=0.941和r=0.977。此外,该团队还分析了量子比特数量扩展至更高规模时算法截断误差与硬件累积噪声的关系,证明通过合理调整截断阈值可建立平衡点,在20-30量子比特规模下防止硬件累积误差快速逼近100%,为未来在真实量子设备上模拟复杂流体系统提供了可行的工程路径。
作者单位: VIP可见
提交arXiv: 2026-04-19 15:26

量科快讯