QMoE:一种用于可扩展量子神经网络的量子专家混合框架

量子机器学习(QML)作为嘈杂中等规模量子(NISQ)时代极具前景的研究方向,通过利用量子叠加与纠缠特性,展现出计算与内存效率优势。然而受硬件限制,这类模型在可扩展性与表达能力方面常面临挑战。本研究提出量子专家混合架构(QMoE),首次将专家混合范式(MoE)引入量子机器学习领域。该架构包含多个作为专家模型的可参数化量子电路,以及可学习的量子路由机制,该机制能根据输入动态选择并聚合特定量子专家。在量子分类任务中的实验表明,该团队提出的QMoE架构性能持续超越标准量子神经网络,凸显其在学习复杂数据模式方面的有效性。该工作为构建可扩展、可解释的量子学习框架奠定了基础。

量科快讯