基于量子启发性张量序列模型的隐私保护与可解释临床预测
临床环境中的机器学习需要平衡预测准确性、可解释性和隐私性。逻辑回归(LR)等模型具有透明度优势,而神经网络(NN)则能提供更强的预测能力——但两者都容易遭受隐私攻击。该研究团队通过设计不同对抗访问级别下的训练数据集识别攻击,对LORIS(一个公开可用的免疫治疗反应预测LR模型)及针对相同任务训练的浅层NN模型进行了实证风险评估。结果显示两种模型都会显著泄露训练集信息,其中LR在白盒攻击场景下尤为脆弱。此外研究人员发现,诸如交叉验证等常规操作会加剧LR模型的风险。为缓解这些漏洞,该工作提出一种基于张量化的量子启发式防御方案:将离散化模型张量化为张量链(TT),在保持精度的同时完全混淆参数,使白盒攻击退化为随机猜测,并将黑盒攻击效果降至与差分隐私相当的水平。TT模型不仅保留了LR的可解释性,还能通过高效计算边缘分布和条件分布来扩展解释能力,同时为NN模型也实现了这种更高层级的可解释性。研究结果表明,张量化技术具有广泛适用性,为构建隐私安全、可解释且高效的临床预测系统奠定了实践基础。
量科快讯
2 天前
2 天前
2 天前
2 天前
【一支国际科研团队成功读取了马约拉纳量子比特中存储的信息】马约拉纳量子比特因其潜在的拓扑保护特性,被视为是实现高可靠量子计算的重要路径之一。然而,如何有效读取并稳定操控这类量子比特,始终是领域内的核…
2 天前
2 天前
3 天前
3 天前

