混合量子-高性能计算环境中的量子执行模型上下文协议服务器
将大型语言模型(LLMs)整合到科学研究中,正加速实现自主“AI科学家”的愿景。尽管最新进展已使人工智能能够提出假设和设计实验,但在任务执行层面——尤其是量子计算(QC)领域——仍存在关键空白。执行量子算法不仅需要生成代码,还需管理量子处理器(QPUs)和高性能计算(HPC)集群等复杂计算资源。本文提出一个AI驱动框架,通过实现模型上下文协议(MCP)服务器来弥合这一执行缺口。该系统使LLM代理能处理作为任务提交的自然语言指令,借助MCP调用工具自主执行量子计算工作流。研究人员通过运行量子采样和期望值计算等核心算法原语验证了该框架的能力,其技术贡献包括:开发面向量子执行的MCP服务器、构建OpenQASM代码解析管道、为ABCI-Q混合平台设计基于CUDA-Q的自动化工作流,以及通过CUDA-Q实现Quantinuum模拟器的远程量子硬件异步执行管道。该研究证实,基于MCP架构的AI代理可有效抽象硬件交互的复杂性,从而推动实用化量子研究的自动化进程。
量科快讯
14 小时前
16 小时前
16 小时前
3 天前

