当前位置:
X-MOL 学术
›
Mach. Learn.
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
LADDER:潜在边界引导的对抗训练
Machine Learning ( IF 4.3 ) Pub Date : 2022-09-09 , DOI: 10.1007/s10994-022-06203-x Xiaowei Zhou , Ivor W. Tsang , Jie Yin
"点击查看英文标题和摘要"
更新日期:2022-09-11
Machine Learning ( IF 4.3 ) Pub Date : 2022-09-09 , DOI: 10.1007/s10994-022-06203-x Xiaowei Zhou , Ivor W. Tsang , Jie Yin
深度神经网络 (DNN) 最近在许多分类任务中取得了巨大成功。不幸的是,它们很容易受到对抗性攻击,这些攻击会生成具有小扰动的对抗性示例来欺骗 DNN 模型,尤其是在模型共享场景中。对抗性训练被证明是将对抗性示例注入模型训练以提高 DNN 模型对抗对抗性攻击的鲁棒性的最有效策略。然而,基于现有对抗样本的对抗训练无法很好地推广到标准的、不受干扰的测试数据。为了在标准精度和对抗鲁棒性之间取得更好的平衡,我们提出了一种新的对抗训练框架,称为LAtent 边界引导的对抗训练(LADDER)在潜在边界引导的对抗样本上对抗训练 DNN 模型。与大多数在输入空间中生成对抗性示例的现有方法相反,LADDER 通过向潜在特征添加扰动来生成无数高质量的对抗性示例。扰动是沿着由具有注意机制的 SVM 构建的决策边界的法线进行的。我们从边界场的角度和可视化的角度分析了我们生成的边界引导对抗样本的优点。与普通 DNN 和竞争基线相比,对 MNIST、SVHN、CelebA 和 CIFAR-10 的广泛实验和详细分析验证了 LADDER 在标准精度和对抗鲁棒性之间实现更好权衡的有效性。
"点击查看英文标题和摘要"