架构形状决定量子神经网络的可训练性:雅可比零空间增长与参数效率
采用角度编码的变分量子电路可实现截断傅里叶级数,而架构通过排列N个量子比特、每个比特配置L个编码层(共享编码预算E=N×L)时,会产生相同的频谱、相同的频率冗余度,且系数控制所需的最小参数数量相同。尽管存在这种等价性,但在固定E的情况下,可训练性随架构形状(N,L)显著变化。该团队确定系数匹配雅可比矩阵J的结构性秩亏缺是导致这一现象的机制。对于串行单量子比特架构,该团队证明无论参数数量P如何,rank(J) ≤ 2L+1,且dim(ker J) ≥ P-(2L+1)无界增长——该团队将此现象称为结构性梯度饥饿:当固定L而增大P时,越来越多的参数在结构上与损失函数解耦。并行架构通过独立的相位轨迹避免了这一问题,确保当P ≤ 2E+1时,σ_min(J^(par)) > 0普遍成立,因此没有任何参数位于ker J中。对于实践者,该团队进一步证明增加参数数量的两种自然路径具有根本不同的效果:增加特征映射(FM)层会单调增强雅可比QFIM特征值谱,在所有测试架构中,用比增加可训练模块少1.6-2.2倍的参数即可达到R²≥0.95;而可训练模块仅通过经典插值机制改善训练,不具备量子特有的优势。

