QLook:基于量子驱动的虚拟现实视口预测
该研究团队提出QLook——一种量子驱动的预测框架,旨在提升沉浸式虚拟现实(VR)环境中的视口预测精度。该框架采用量子神经网络(QNN)对用户运动数据进行建模,这些具有多重相互依赖维度的数据采集自六自由度(6DoF)VR场景。QNN通过量子叠加与纠缠效应,实现对高维用户位置数据间复杂关联性的编码与处理。该方案采用级联混合架构,将传统神经网络与基于变分量子电路(VQC)增强的量子长短期记忆(QLSTM)网络相结合。研究人员运用恒等块初始化技术,有效缓解了VQC常见的训练难题(尤其是梯度消失高原现象)。实证评估表明,相比现有最优技术(SoTA),QLook实现了37.4%的均方误差(MSE)降低,展现出卓越的视口预测能力。
