量子Transformer中带可学习编码的向量化注意力
向量化量子块编码技术为将经典数据嵌入希尔伯特空间提供了方法,为量子模型(如量子Transformer)开辟了新路径。该类模型通过量子电路模拟替代经典自注意力机制,从而提升运算效率。现有量子Transformer依赖深度参数化量子电路(PQC),易受量子处理器噪声影响,导致实际性能受限。本工作提出向量化量子Transformer(VQT),该模型通过量子近似模拟实现理想掩码注意力矩阵计算,并借助向量化非线性量子编码器实现高效训练,最终达成高样本效率、无梯度优化的量子电路模拟方案,同时降低经典采样开销。研究还对比了IBM与IonQ平台的量子电路模拟精度,并在IBM最新高保真Kingston量子处理器上展示了自然语言处理任务的基准测试竞争力。这种适配含噪声中等规模量子设备的VQT方案,为量子计算中的端到端机器学习架构提供了创新范式。
