量子机器学习中的对抗性威胁:攻击与防御综述
量子机器学习(QML)将量子计算与经典机器学习相融合,主要用于解决分类、回归及生成任务。然而,其快速发展在噪声中等规模量子(NISQ)时代引发了关键的安全挑战。本章研究了QML系统特有的对抗性威胁,重点关注基于云的部署、混合架构及量子生成模型中的脆弱性。主要攻击手段包括:通过量子电路转换或输出提取窃取模型;利用量子特异性扰动实施数据投毒;逆向工程专有变分量子电路;以及后门攻击。攻击者利用易受噪声影响的量子硬件及防护不足的“量子机器学习即服务”(QMLaaS)工作流,破坏模型完整性、所有权和功能性。 防御机制则利用量子特性应对这些威胁:训练硬件的噪声特征可作为非侵入式水印;硬件感知的混淆技术和集成策略能干扰克隆尝试;新兴解决方案还将经典对抗训练和差分隐私技术适配至量子环境,以应对量子神经网络和生成架构中的漏洞。然而,保障QML安全仍需解决开放挑战,如平衡噪声水平以实现可靠性与安全性、缓解跨平台攻击,以及建立量子-经典信任框架。本章综述了攻防领域的最新进展,为研究者和从业者构建抗演变的对抗环境、实现稳健可信的QML系统提供了路线图。
