当前位置: X-MOL 学术arXiv.cs.AI › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
无法防御的攻击:通过条件扩散模型进行仅标签模型反演
arXiv - CS - Artificial Intelligence Pub Date : 2023-07-17 , DOI: arxiv-2307.08424
Rongke Liu

模型反转攻击(MIA)旨在从目标模型的训练集中恢复私有数据,这对深度学习模型的隐私构成威胁。MIA 主要关注白盒场景,其中攻击者可以完全访问目标模型的结构和参数。然而,实际应用是黑盒的,对手不容易获得模型相关参数,并且各种模型仅输出预测标签。现有的黑盒 MIA 主要侧重于设计优化策略,生成模型仅从白盒 MIA 中使用的 GAN 迁移而来。据我们所知,我们的研究是对仅标签黑盒场景中可行攻击模型的开创性研究。在本文中,我们开发了一种新颖的 MIA 方法,使用条件扩散模型来恢复目标的精确样本,无需任何额外的优化,只要目标模型输出标签即可。引入了两种主要技术来执行攻击。首先,选择与目标模型任务相关的辅助数据集,以目标模型预测的标签作为指导训练过程的条件。其次,将目标标签和随机标准正态分布噪声输入到训练好的条件扩散模型中,生成具有预先定义的引导强度的目标样本。然后我们筛选出最具稳健性和代表性的样本。此外,我们首次提出使用学习感知图像块相似度(LPIPS)作为 MIA 的评估指标之一,在攻击准确性、真实性和相似性方面进行系统的定量和定性评估。实验结果表明,该方法无需优化即可生成与目标相似且准确的数据,并且在仅标签场景中优于先前方法的生成器。



"点击查看英文标题和摘要"

更新日期:2023-07-18
down
wechat
bug