量子神经网络的准确性与鲁棒性全面分析
量子机器学习(QML)近期已成为极具前景的研究前沿。在该领域中,以变分量子电路(VQC)为核心、通过经典算法优化量子门层级的量子神经网络(QNN)备受关注。然而,对其实际性能的严格全面评估仍存在较大空白。本研究对三种主流混合经典量子架构——量子卷积神经网络(QCNN)、量子循环神经网络(QRNN)和量子视觉Transformer(QViT)——进行了综合比较分析,聚焦泛化能力、准确性和鲁棒性等关键维度。研究结果提供了填补先前评估空白的新见解。值得注意的是,虽然这些模型在MNIST等低特征数据集上表现卓越,但当迁移至高特征数据集时,其学习效能显著下降。此外,基于卷积的模型(如QCNN)在高维数据上的效果不及其他机器学习架构。同时,尽管所有模型均易受对抗性噪声影响,但传统架构(如循环网络和卷积网络)展现出更强的抗干扰能力。相反,在量子噪声环境下,基于Transformer的架构通过保持对测量噪声、信道噪声和有限采样效应的高鲁棒性证明了其优势,而其他架构则出现明显性能衰退。这些结果为该领域现状提供了精细化视角,并强调在当代含噪中等规模量子(NISQ)环境中根据约束条件定制模型选择的关键意义。

