理解量子联邦学习中全同态加密的资源成本

量子联邦学习(QFL)通过共享模型梯度而非原始数据,实现了量子机器学习(QML)模型的分布式训练。然而这些梯度仍可能泄露用户敏感信息。为增强隐私性,学术界提出在QFL及相关框架中采用参数同态加密方案。该工作评估了全同态加密(FHE)在QFL系统中引入的开销,并评估了其在实际应用中的可行性。研究团队实现了包括量子卷积神经网络(QCNN)在内的多种QML模型,在联邦学习环境下使用CKKS加密方案对参数进行加密训练——这是首个采用CKKS加密参数、在联邦框架下训练的QCNN。通过训练不同架构的模型来预测MRI扫描中的脑肿瘤,实验表明内存与通信开销仍然显著,使得FHE部署面临挑战。若要最小化开销需减少模型参数量,但这会导致分类性能下降,从而在隐私保护与模型复杂度之间形成权衡。

作者单位: VIP可见
提交arXiv: 2026-03-03 01:36

量科快讯