固定电路面积下量子神经网络编码族在频谱特性和可训练性方面的基准测试

量子神经网络(QNNs)为将量子计算原理融入机器学习提供了前景广阔的框架,但其实际能力与局限仍缺乏充分研究。该工作通过在不同合成及真实数据集上对多种电路架构与编码策略进行基准测试,系统性地探究了QNN的可训练性与近似特性。研究人员评估了包括汉明码、二进制、指数、三进制、turnpike和Golomb在内的多种拟设,通过测试其学习随机有限傅里叶级数建模的合成数据能力展开分析。为验证实际适用性,该团队进一步在两项时间序列分类任务(Fischertechnik气动泄漏检测数据集和公开的NASA轴承故障数据集)上评估了QNN性能。实验表明,虽然更宽的频谱理论上可增强表达能力,但实际可训练性显著受量子比特数量和电路深度等架构因素影响。值得注意的是,当频谱与目标函数复杂度匹配且尽可能紧凑时,QNN表现最佳。此外,具有相同频谱的架构在可训练性上存在差异——除单层结构外,采用更多量子比特和更少层级的配置通常表现更好。这些发现为QNN拟设选择提供了指导原则,并为量子机器学习中表达能力与可训练性的相互作用机制提供了新见解。

作者单位: VIP可见
提交arXiv: 2026-03-29 12:42

量科快讯