量子机器遗忘
量子机器学习(QML)将量子计算与经典机器学习(ML)相结合,有望为特定任务实现量子优势。在经典ML中,机器遗忘(MU)是通过从模型中移除指定训练数据影响以满足监管要求、降低隐私风险的关键策略。然而,QML中训练数据成员信息泄露的风险仍未得到充分研究。这促使该团队提出量子机器遗忘(QMU)以探索两个核心问题:QML模型是否因训练数据成员泄露而需要MU?以及MU机制能否在QML中高效实现? 为回答这两个问题,研究人员在MNIST分类任务上进行了实验,采用类级遗忘范式并在无噪声仿真与量子硬件上验证。首先,该工作通过成员推理攻击(MIA)量化训练数据隐私泄露,观察到无噪声仿真中平均成功率达90.2%,量子硬件上为75.3%。这些结果表明:QML模型在对抗访问下极可能存在训练数据成员泄露,印证了引入MU的必要性。其次,该团队在QML模型上实施MU算法,将MIA平均成功率降至仿真环境0%、量子硬件3.7%,同时保持对保留数据的预测精度。实验证明:部署MU机制的QML模型能有效抵抗MIA攻击。 综上,本文揭示了QML模型存在的重大隐私漏洞,并提供了有效的防御策略,为构建隐私保护的QML系统提供了可行路径。
