量子计算中不稳定噪声下的计算性能边界预测
近年来,量子计算取得显著进展,已实现数百个量子比特(qubit)的设备,展现出超越经典计算的潜在“量子优势”。然而量子器件中的噪声问题严重阻碍了这一优势的实现。理解噪声影响对结果复现和应用复用至关重要;此外,下一代以量子为核心的超算系统本质上需要高效精确的噪声表征来支持系统管理(如任务调度),其中确保可用量子设备上任务功能性能(即保真度)的正确性可能比传统目标更为优先。但噪声具有时变特性——即使在相同量子设备上亦如此——这使得实时噪声下的计算边界预测尤为重要。噪声量子模拟虽能提供参考,却受限于效率和可扩展性。该工作提出名为QuBound的数据驱动工作流来预测计算性能边界:通过分解历史性能轨迹以隔离噪声源,设计新型编码器嵌入电路与噪声信息后由长短期记忆(LSTM)网络处理。评估显示,现有学习方法(仅生成单一性能值而非边界)的预测结果会超出性能边界,而经性能分解辅助的QuBound所有预测均能更好贴合边界。此外,QuBound能以超模拟106倍的速度为各类电路生成实用边界,其预测范围较当前最佳分析方法收窄逾10倍。
