无需指数级集中的量子优势:适用于对称结构数据的可训练核
量子核方法为学习结构化数据提供了更强的表达能力,但其应用长期以来受限于核浓度衰减与训练高原现象。这两种效应在数学上等价且会抑制模型的可训练性。该研究团队通过理论证明:针对具有群对称性的数据集设计的协变量子核可避免指数级浓度衰减,从而确保方差稳定性并获得与系统规模无关的可训练性保障。该工作将先前双陪集构造推广至任意陪集族,显著扩展了量子核具备优势的问题范围。研究人员进一步推导出相干噪声模型下的显式误差界——包括基准态制备中的酉误差、不完美酉表示以及群元选择扰动,并通过数值模拟表明即使存在显著噪声,核方差仍能保持有限且稳健。这些发现建立了一类兼具可训练性、抗相干噪声能力并与经典难解问题关联的量子学习模型,使群对称量子核成为近期可扩展量子机器学习的有力基础架构。
