用于语言生成的混合量子变换器

尽管量子计算已日益用于替代经典计算,但现有大多数量子或混合模型仍局限于简单任务,迄今为止尚未成功应用于大规模自然语言生成。该工作提出了首个用于自然语言生成的混合量子-经典大语言模型(LLM)HyQuT,能够进行连贯且具备上下文感知的对话。所提出的架构在800万和1.5亿参数规模下,将变分量子电路(VQC)集成至Transformer框架中。实验结果表明:在1.5亿参数模型中,最少量子比特数(10个量子比特配80个量子门)即可替代约10%的经典参数,同时保持相当的收敛稳定性和生成质量。这项研究为量子计算与大规模生成式语言模型的融合可行性提供了早期实证。

作者所在地: VIP可见
作者单位: VIP可见
提交arXiv: 2025-11-02 10:17

量科快讯