高斯过程回归是一项著名的机器学习技术,针对该技术已有多种量子算法被提出。该研究团队证明,在广泛的应用场景下,这些算法并不具备指数级加速优势。通过严格数学推导,研究人员揭示了在数据和核函数的通用假设条件下,核矩阵的条件数至少随矩阵规模呈线性增长。此外,该工作还证明了在相似假设条件下,核矩阵的稀疏性和弗罗贝尼乌斯范数同样呈现线性缩放规律。这些发现对量子算法运行时的影响与经典数据加载至量子计算机的复杂度无关,同样适用于去量子化算法。该团队通过机器学习常用核函数的数值验证,进一步佐证了理论分析结果。