通过大型语言模型测试时学习实现量子电路生成

大型语言模型(LLMs)能够生成结构化产物,但要将它们作为科学设计中可靠的优化器使用,需要一种在黑箱评估下实现迭代改进的机制。该研究团队将量子电路合成转化为一个闭环式的测试时优化问题:由LLM对固定长度的门序列提出修改建议,外部模拟器则通过迈耶-瓦拉赫(MW)全局纠缠度量评估生成态。该工作提出了一种轻量级测试时学习方案——复用先前高性能候选方案作为显式记忆痕迹,通过分数差异反馈增强提示词,并采用“最优重启采样”策略来突破潜在平台期。 在20量子比特的固定实验环境中,无反馈和最优重启的基础优化循环可在不同门预算范围内改进随机初始电路。为提升性能与成功率,研究人员采用了完整学习策略。针对25量子比特场景,该方法有效缓解了原始查询方式导致的明显性能停滞现象。除原始分数外,该团队还分析了合成态的结构特征,发现高MW值解可能对应稳定子态或类图态结构,但由于度量特性和提示设计限制,无法保证完全连通性。 这些结果既揭示了基于记忆评估器引导的LLM优化在电路合成中的应用前景,也暴露了其局限性,同时凸显了人工设计理论定理对定制化研究工具优化设计的关键作用。

作者所在地: VIP可见
作者单位: VIP可见
页数/图表: 登录可见
提交arXiv: 2026-02-03 12:41

量科快讯