在缓冲退相干与生成变异条件下实现量子比特吞吐量最大化

量子通信网络需要传输高保真度、未编码的量子比特,以用于纠缠态分发和量子密钥分发等应用。然而,当前实施面临有限缓冲容量和量子比特退相干问题的制约——量子比特在缓冲等待期间会发生质量衰减。核心挑战源于量子比特生成的随机性:从生成请求发起至量子比特可用之间存在随机延迟(D),这导致了根本性的权衡矛盾:过早生成会增加缓冲等待时间从而加剧退相干,而过迟生成则会造成服务器闲置和吞吐量下降。该研究团队将该系统建模为有限缓冲队列中的准入控制问题,其中每个任务的奖励与其驻留时间呈递减函数关系。研究人员推导出“零延迟”策略(即一旦缓冲空间可用就立即生成新量子比特)具备最优性的解析条件。针对系统参数未知的场景,该工作进一步开发了能自适应优化准入策略的贝叶斯学习框架。除量子通信系统外,所提模型还可应用于对延迟敏感的物联网传感与服务系统。

作者单位: VIP可见
提交arXiv: 2026-03-26 14:23

量科快讯