QFFN-BERT: 混合量子-经典Transformer架构中深度、性能与数据效率的实证研究
参数量子电路(PQC)近期成为增强神经网络架构表达能力的创新组件。该工作提出QFFN-BERT——一种混合量子经典Transformer模型,其核心创新在于将紧凑型BERT变体的前馈网络(FFN)模块替换为基于PQC的层。这一设计源于FFN在标准Transformer编码器模块中约占总参数量三分之二的突出地位。不同于前人研究主要将PQC集成至自注意力模块的做法,该团队聚焦FFN结构,系统探究了PQC深度、表达能力与可训练性之间的平衡关系。最终提出的PQC架构融合了残差连接、RY与RZ旋转门以及交替纠缠策略,确保了训练稳定性与高表达能力。 在SST-2和DBpedia基准测试的经典模拟器实验中,该研究团队获得两项关键发现:首先,经过精心配置的QFFN-BERT在完整数据场景下达到基线模型102.0%的准确率,超越经典对应模型的同时将FFN专用参数量降低99%以上;其次,模型在少样本学习场景中展现出持续竞争优势,证实其具有更优的数据效率潜力。这些发现通过对比未优化PQC的消融实验(该PQC完全未能学习)得到验证,表明当结合深度学习基础原理进行协同设计时,PQC确实能成为经典FFN的强大且高效的参数替代方案。
