从可达性到可学习性:量子神经网络的几何设计原理
经典深度网络之所以有效,是因为深度能够实现数据表征的自适应几何形变。然而在量子神经网络(QNN)中,仅凭深度或状态可达性并不能保证这种特征学习能力。该研究团队通过在纯态设定中将编码数据视为ℂP2n−1空间中的嵌入流形,并通过李代数方向分析无穷小幺正作用来研究这一问题。研究人员提出了“经典到李代数”(CLA)映射和“近似完全局部选择性”(aCLS)准则,该准则将方向完备性与数据相关的局部选择性相结合。在此框架下,该工作证明:与数据无关的可训练幺正变换具有完备性但缺乏选择性(即可学习的刚性重定向),而纯数据编码具有选择性但不可调节(即固定的形变)。因此,几何灵活性需要数据与可训练权重之间建立非平凡的联合依赖关系。该团队进一步证明,要实现对多量子比特态流形的高维形变,需要参数化的纠缠方向;仅靠固定纠缠门(如CNOT)无法提供自适应几何控制。数值实验验证:满足CLS准则的数据重上传模型在仅需四分之一门操作的情况下,性能优于不可调节方案。这一发现将QNN设计范式从状态可达性重构为对隐藏量子表征可控几何特性的调控。
量科快讯
1 天前
1 天前

