包括线性回归、核方法以及深度神经网络在内的多种经典机器学习模型都展现出双下降现象——即测试风险在接近插值阈值时达到峰值,随后在过参数化区域逐渐降低。然而这一现象在量子计算领域尚未得到充分关注。本工作研究了量子核岭回归(QKRR)中的双下降现象,通过运用随机矩阵理论(RMT)中的确定性等价方法,该团队推导出了高维极限下QKRR测试风险的渐近表达式。该分析不仅严格刻画了插值峰值特征,还揭示了显式正则化如何有效抑制该现象。数值模拟验证了理论结果,即使在有限规模的量子系统中也展现出高度吻合性。
作者单位:
VIP可见
页数/图表:
登录可见
提交arXiv:
2026-04-19 02:09