混合量子神经网络中的模型选择及其在量子Transformer架构中的应用
量子机器学习模型通常缺乏系统化的设计准则,往往需要耗费大量资源对多种编码方式、量子电路设计和初始化策略进行完整训练,才能找到有效配置。为解决这一难题,该研究团队开发了量子偏置-表达能力工具箱(QBET),这是一个用于评估量子、经典及混合Transformer架构的框架。在该工具箱中,研究人员引入了简洁性偏置(SB)和表达能力(EXP)的精简指标用于跨模型比较,并将SB分析拓展至生成式和多类分类任务。研究表明,QBET能高效预筛选有潜力的模型变体,从而避免执行完整的训练流程。在基于Transformer的分类和生成任务评估中,该工作共采用18个量子比特进行嵌入(查询、键和值各占6个量子比特)。通过根据SB指标对模型排序并比较其相对性能,研究人员发现了量子自注意力变体超越经典对应模型的场景。

