我使用https://github.com/tensorflow/cleverhans生成对抗性图像,但没有提供攻击类别算法。
这里列出了所有的攻击算法代码:https://github.com/tensorflow/cleverhans/tree/master/cleverhans/attacks
我不知道哪种攻击算法是灰盒攻击,哪种是白盒攻击算法或黑盒攻击算法?
因为我需要算法的分类来研究攻击防御算法。github页面没有提供任何有关这方面的信息。我怎么会知道?
发布于 2019-01-31 13:57:20
将从最后一段中引用卡里尼的论文开始:对手可以完全访问神经网络,包括体系结构和所有参数,并可以以白盒方式使用。这是一个保守和现实的假设:先前的工作表明,如果给定对目标模型的黑盒访问,则可以训练替代模型,然后通过攻击替代模型,我们可以将这些攻击转移到目标模型。
进行如下2个定义,如下所示::
白盒:攻击者完全了解ML算法、ML模型(即参数和超参数)、体系结构等。下图显示了白盒攻击的工作原理示例:

黑盒:攻击者对ML系统几乎一无所知(可能知道一些特性,ML算法)。下图以步骤为例:

来自库拉金的论文ADVERSARIAL EXAMPLES IN THE PHYSICAL WORLD的物理世界中的黑盒对抗攻击的3.4节演示如下:第1段第9页描述白盒含义:上述实验在假设对手完全访问模型的情况下研究物理对抗示例(即对手知道体系结构,模型权重等)。。。)。
和下面对黑盒含义的解释:然而,在黑盒场景中,攻击者没有访问模型的权限,这是许多安全威胁的更现实的模型。
结论:为了定义/标记/分类算法为白盒/黑盒,您只需更改模型的设置。
注意:我不对每个算法进行分类,因为一些算法在cleverhans库中只能支持白盒设置或黑盒设置,但对你来说是一个很好的开始(如果你做研究,你需要检查文档中列出的每一篇论文以了解GAN,这样你就可以生成你自己的对抗性例子。
使用的资源和有趣的论文:
基于Fgsm Fast Gradient Sign Method
https://arxiv.org/pdf/1412.6572.pdf https://arxiv.org/pdf/1611.01236.pdf Vatm virtual adversarial training Gradient Sign方法
https://stackoverflow.com/questions/54432756
复制相似问题