基于Transformer算法的量子电路转译
Transformer模型因其在自然语言处理领域的应用而在机器学习中广受欢迎。该模型能高效处理文本,捕捉数据间的长程依赖关系,并执行下一词预测。而基于量子门的计算则是通过对量子硬件中的量子比特寄存器施加一系列门操作来实现,这一过程可类比为低级文本编程语言。该研究团队开发了一种Transformer模型,能够将量子电路从QASM标准转译为适合特定目标量子硬件的原生门集合——在本研究中即离子阱量子计算机厂商IonQ的门集。实验证明,该模型在5量子位以内的转译正确率均达到或超过99.98%。研究证实,无论寄存器深度和门操作数量如何变化,该Transformer模型的复杂度在最坏情况下仅随寄存器深度和电路长度呈多项式趋势增长,这使得具有更多参数的模型能够在高性能计算基础设施上实现高效训练。
量科快讯
1 天前
2 天前



