论文阅读笔记:Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks

总览

这篇文章发表在 S&P 2016 上,是对抗样本领域中较早的一种系统性的防御方法,即defensive distillation(防御蒸馏)。因为先前的防御方法大多是经验性的,如对抗训练等等,都是从结果上证明了其防御有效,但没有从原理层次详细的分析防御之所以成功的原因。在本文中,作者观察在两个简单的识别MNIST和CIFAR10的模型上的实验结果,证实了defensive distillation方法的有效性,但这个方法在后来的文章中,也就是S&P 2017 CW attack,被证实是无效的防御。

Donate comment here