Quantinuum公司的研究人员在量子自然语言处理模型上获得突破

企业动态 量科网 2024-01-17 08:16

Quantinuum的研究人员最近首次在量子计算机上运行了可扩展的量子自然语言处理(QNLP)模型,它能够解析和处理真实世界的数据。在最近的一篇论文中,该团队的研究人员为序列分类任务定义了机器学习模型,这些序列可以是自然语言中的任何句子(如电影评论),也可以是生物信息学中的字符串(如DNA序列)。对字母、单词或较长的文本片段这样的符号序列进行分类显然是一项有用的计算任务,它导致产生了十年来最重大的科技变革。现在,我们能看到这项技术已经应用在从聊天机器人到法律案件的各个领域。 

目前基于神经网络的经典模型主要关注的是词语之间相对位置的统计分布——它们实际上并不先验地考虑语言的结构。相比之下,句法信息支持着Quantinuum的新量子模型,这些模型是基于张量网络构建的,使其具有了“语法意识”。如果从一开始就考虑到结构和语法等因素,就可以使科学家能够创建出参数更少、所需的门操作也更少的模型,同时由于从一开始就采用有意义的结构,也让模型具有了可解释性。这种可解释性是人工智能(AI)领域中最紧迫的挑战,因为如果我们不知道算法为什么会给出某种答案,我们就无法在关键应用中信任它,例如在医疗决策或人命关天的场景中。

神经网络和张量网络都能捕捉大数据中的复杂关联,但它们捕捉的方式却有着本质的不同。此外,由于量子理论本质上是由张量网络描述的,因此使用张量网络来构建QNLP模型,可以用来研究量子处理器在特定的自然语言处理和人工智能领域能够带来哪些潜力。

由于Quantinuum的H2-1量子处理器具有中间电路测量和量子比特再利用等一流功能,这使得它们能够容纳比人们想象的要大得多的电路。例如,研究人员只用11个量子比特就能运行通常需要64个量子比特才能运行的电路。再加上所需门的数量也减少了,因此这些模型在当前的量子硬件上是完全可行的。

Quantinuum的这项研究表明,我们可以在当今的量子计算机上运行、训练和部署QNLP模型。与基于神经网络的分类器相比,在这项任务上,量子模型在预测精度方面的表现同样出色。更重要的是,该工作对量子语言模型的探索具有重要的意义,因为在这项工作中使用的量子电路类型中采样所需的资源可能要比经典模拟方法少得多。(编译:Tmac)