参数高效的量子多任务学习
多任务学习(MTL)通过共享表征联合学习相关任务,从而提升泛化能力和数据利用效率。在广泛采用的硬参数共享架构中,共享主干网络会与任务专用预测头相结合。但任务专用参数会随任务数量快速增长。因此,如何在保持任务专属性的同时提升参数效率,仍是设计多任务预测头的核心挑战。量子机器学习(QML)中,变分量子电路(VQC)能以紧凑机制将经典数据映射到高维希尔伯特空间的量子态,从而在有限参数预算下实现高表达力表征。该团队提出一种参数高效的量子多任务学习框架(QMTL),在混合架构中用全量子预测头取代传统任务专用线性头。该模型由共享的任务无关量子编码层VQC和轻量级任务专用ansatz模块组成,既能实现局部任务适配,又可保持紧凑参数化。在共享表征维度随任务数量增长的受控等容量设定下,参数缩放分析表明:经典标准头需二次方级参数增长,而所提量子头仅需线性级增长。该团队在自然语言处理、医学影像和多模态讽刺检测三类多任务基准测试中评估QMTL,其性能不仅达到且部分超越经典硬参数共享基线,同时以显著更少的预测头参数持续优于现有混合量子MTL模型。实验进一步验证了QMTL在噪声模拟器和真实量子硬件上的可执行性。

