首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI研习社

    GitHub项目推荐 | 用于对机器学习模型进行对抗性攻击、防御和基准测试的Python库:CleverHans 3.0.0

    CleverHans (最新版本: v3.0.0) 项目地址:https://github.com/tensorflow/cleverhans ? 此资料库包含CleverHans的源代码,CleverHans是一个Python库,用于将机器学习系统中的漏洞与对抗性示例进行对比。 您可以在随附的博客上了解有关此类漏洞的更多信息。 如果你想安装最前沿的版本,请使用如下命令安装: pip install git+https://github.com/tensorflow/cleverhans.git#egg=cleverhans 安装用于开发 如果你想对CleverHans进行可编辑的安装,以便开发库并提供更改,首先在GitHub上fork CleverHans库,然后将fork克隆到你选择的目录中: git clone 为了加快代码审查进度,我们有以下要求: 在CleverHans开发的邮件列表上协调新的工作和功能,邮箱:cleverhans-dev@googlegroups.com。

    2.3K60发布于 2018-12-18
  • 来自专栏大数据智能实战

    Python3环境下cleverhans对抗样本防护编译与测试(含FGSM攻击与ADV防护)

          在看人工智能安全方面的资料,顺手看到cleverhans的资料,就将它在python 3.6的环境下进行编译和测试。       在Ian Goodfellow的《Machine learning privacy and security》报告中才了解到cleverhans项目名字的由来:“一匹叫做 Clever Hans 的马。 这个项目是tensorflow的子项目(https://github.com/tensorflow/cleverhans),原始的代码版本是PYTHON 2.7环境,于代码下载后进行了重构和3.6版本的编译 : ,具体 的代码可见https://github.com/tensorflow/cleverhans/blob/master/cleverhans/attacks_tf.py相关的函数。               如论文原文中指出的贡献如下: 实际代码中,cleverhans提供了两种对抗训练,一种是基于inceptionv3的,一种是inception-resnet-v2的增强版。

    83920编辑于 2022-05-07
  • 来自专栏AI科技评论

    开发 | GitHub项目推荐 : 用于对机器学习模型进行对抗性攻击、防御和基准测试的Python库

    CleverHans (最新版本: v3.0.0) 项目地址: https://github.com/tensorflow/cleverhans ? 此资料库包含CleverHans的源代码,CleverHans是一个Python库,用于将机器学习系统中的漏洞与对抗性示例进行对比。 您可以在随附的博客上了解有关此类漏洞的更多信息。 如果你想对CleverHans进行可编辑的安装,以便开发库并提供更改,首先在GitHub上fork CleverHans库,然后将fork克隆到你选择的目录中: git clone https:// github.com/tensorflow/cleverhans 然后,您可以在“可编辑”模式下安装本地程序包,以便将其添加到 PYTHONPATH: cd cleverhans pip install 为了加快代码审查进度,我们有以下要求: 在CleverHans开发的邮件列表上协调新的工作和功能,邮箱:cleverhans-dev@googlegroups.com。

    1.1K20发布于 2018-12-19
  • 来自专栏AI科技评论

    Ian Goodfellow & ICLR-17最佳论文得主新作:验证与测试,机器学习的两大挑战

    AI 科技评论按:去年年底,Ian Goodfellow与Nicolas Papernot(是的,就是ICLR 2017的最佳论文得主之一)合作开了一个博客叫cleverhans,主要写一些关于机器学习在安全与隐私问题的文章 为了解决这些问题,我们开发出了CleverHans 库( https://github.com/tensorflow/cleverhans )。这个库中包含了几种攻击和防御程序的参考实现。 研究人员以及产品研发人员可以使用cleverhans来测试他们的模型对先进攻防措施的鲁棒性。通过这种方法,倘若模型经过cleverhans攻击依然会获得很高的准确率,那么我们就可以认为防御很有效。 此外,只要研究人员使用同样的CleverHans版本与计算环境,那么就可以对他们的研究结果进行比较。 Neural computation, 8(7), 1341-1390. via cleverhans

    92560发布于 2018-03-13
  • 来自专栏数据结构和算法

    使用Python实现深度学习模型:模型安全与防御

    所需工具Python 3.xTensorFlow 或 PyTorch(本文以TensorFlow为例)CleverHans(用于对抗性攻击和防御)步骤一:安装所需库首先,我们需要安装所需的Python库 可以使用以下命令安装:pip install tensorflow cleverhans步骤二:训练深度学习模型我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。 我们将使用CleverHans库生成对抗性样本。 以下是一个示例代码:import numpy as npfrom cleverhans.tf2.attacks.fast_gradient_method import fast_gradient_method 我们使用CleverHans库生成对抗性样本,并通过对抗性训练提高模型的防御能力。希望这篇教程对你有所帮助!

    37110编辑于 2024-07-12
  • 来自专栏数据结构和算法

    使用Python实现深度学习模型:模型安全与防御

    所需工具 Python 3.x TensorFlow 或 PyTorch(本文以TensorFlow为例) CleverHans(用于对抗性攻击和防御) 步骤一:安装所需库 首先,我们需要安装所需的Python 可以使用以下命令安装: pip install tensorflow cleverhans 步骤二:训练深度学习模型 我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。

    23910编辑于 2024-07-13
  • 来自专栏算法与数据之美

    聪明汉斯的故事

    关于聪明汉斯 一个开源的 cleverhans 项目,是 TensorFlow下面的一个子库,用于对抗样本生成的标准实现,也可用于对抗训练和再现基准。 项目地址:https://github.com/tensorflow/cleverhans Ian Goodfellow和Nicolas Papernot两人共同创建、更新一个名为cleverhans的博客 博客地址:http://www.cleverhans.io/ ?

    1.5K20发布于 2020-01-17
  • 来自专栏相约机器人

    PyTorch中神经网络的对抗性攻击和防御

    PyTorch中的FGSM 要在PyTorch中进行FGSM攻击,我们可以使用Ian Goodfellow和Nicolas Papernot提供并精心维护的CleverHans库。 可以使用以下命令下载并安装该库: pip install git+https://github.com/tensorflow/cleverhans.git#egg=cleverhans 将使用简单的MNIST 为此,必须首先从CleverHans导入所需的功能: from cleverhans.future.torch.attacks.fast_gradient_method import fast_gradient_method

    2.5K41发布于 2020-09-14
  • 来自专栏AI科技评论

    玩转TensorFlow?你需要知道这30个功能

    网址:https://github.com/tensorflow/tcav 29)Cleverhans 如果你的模型的表现高度取决于输入数据,那么可以通过操纵或污染数据来破坏这些模型。 在 @goodfellow_ian 的博客上可以看到如何使用 cleverhans 为对抗攻击的脆弱性评估提供基准库! 网址是:https://github.com/tensorflow/cleverhans 30)Rust + Haskell 和 C API 的结合 我在前面提到过 rstats 支持,并且希望确保也能提到其它社区项目

    1.2K20发布于 2018-12-24
  • 来自专栏新智元

    不可错过的 GAN 资源:教程、视频、代码实现、89 篇论文下载

    视频 Ian Goodfellow:生成对抗网络 【视频】http://t.cn/RxxJF5A Mark Chang:生成对抗网络教程 【视频】http://t.cn/RXJOKK1 代码 Cleverhans :一个对抗样本的机器学习库 【代码】https://github.com/openai/cleverhans 【博客】http://cleverhans.io/ 50行代码实现GAN(PyTorch)

    2.7K110发布于 2018-03-28
  • 来自专栏AI科技评论

    学界 | OpenAI最新研究:“对抗样本”能轻易黑掉AI系统,如何抵御?

    如果你想要做一个击溃自己模型的实验,可以使用cleverhans,这是一个由Ian Goodfellow和Nicolas Papernot联合开发的开源库,可以用它来测试你的模型在面对“对抗样本”时的脆弱性 cleverhans库已经有开源的对抗训练机制,这里面(https://github.com/openai/cleverhans/blob/master/tutorials/mnist_tutorial_tf.md

    1.6K50发布于 2018-03-09
  • 来自专栏大数据文摘

    用100元的支票骗到100万:看看对抗性攻击是怎么为非作歹的

    你可以在这里下载所有的脚本: https://github.com/tensorflow/cleverhans/tree/master/examples/nips17_adversarial_competition OpenAI的教程 https://blog.openai.com/adversarial-example- research/ Repositories and tools 资料库和工具: Cleverhans is a great TensorFlow-based library for adversarial attacks and defences: Cleverhans是一个很好的基于TensorFlow 的对抗攻击和防御的文库 https://github.com/tensoreow/cleverhans FoolBox — another collection of attacks that you

    61030发布于 2018-05-24
  • 来自专栏量子位

    深究机器学习的软肋:难以防范的对抗攻击,让机器产生了幻觉

    如果你想攻击自己的模型做实验,可以尝试Ian Goodfellow和Nicolas Papernot共同开发的开源库cleverhans,这个库是用来测试AI易受对抗范例攻击的缺陷的。 Cleverhans库中提供了对抗训练的开源实现,还附有教程。 防御蒸馏 这个策略是训练模型输出不同类别的概率,而不是直接输出分类,这个概率来自于对相同任务进行硬分类训练的早期模型。

    1.1K40发布于 2018-03-21
  • 来自专栏专知

    【GAN货】生成对抗网络知识资料全集(论文/代码/教程/视频/文章等)

    dyelax/Adversarial_Video_Generation 基于条件对抗网络的图像到图像翻译(pix2pix) https://github.com/phillipi/pix2pix 对抗机器学习库Cleverhans https://github.com/openai/cleverhans 最新论文 基于深度卷积生成对抗网络的无监督学习(Unsupervised Representation Learning

    1.8K50发布于 2018-04-09
  • 来自专栏机器之心

    资源 | 生成对抗网络新进展与论文全集

    list=PLeeHDpwX2Kj5Ugx6c9EfDLDojuQxnmxmU] 代码 Cleverhans: A library for benchmarking vulnerability to adversarial examples [https://github.com/openai/cleverhans] [http://cleverhans.io/] Generative Adversarial Networks

    892110发布于 2018-05-07
  • 来自专栏机器之心

    安全AI挑战者计划,邀你共同成长为DL时代的「模型黑客」

    参考资源 目前互联网上有多个开源的对抗攻击源码,例如 cleverhans、foolbox 等,它们都是非常流行的项目。如果选手希望找到更多的开源方法,也可以直接在 GitHub 上搜索。 https://github.com/tensorflow/cleverhans https://github.com/bethgelab/foolbox 本文为机器之心原创,转载请联系本公众号获得授权

    77930发布于 2019-08-16
  • 来自专栏AI科技大本营的专栏

    AI 技术讲座精选:OpenAI 最新成果——利用对抗样本攻击机器学习

    https://youtu.be/r2jm0nRJZdI 如果你想破坏你自己的模型来进行试验,那你可以用 Cleverhans 试试,它是 Ian Goodfellow 和 Nicolas Papernot 我们可以在 Cleverhans 库中实施开源的对抗训练,其使用方法请见如下指南。 防御升华 : 在这一策略中,我们训练模型输出不同类别的概率,而不是影视判决模型到底输出哪一类。

    946100发布于 2018-04-26
  • 来自专栏专知

    【专知荟萃11】GAN生成式对抗网络知识资料全集(理论/报告/教程/综述/代码等)

    Adversarial_Video_Generation] 基于条件对抗网络的图像到图像翻译(pix2pix) 参考链接:[https://github.com/phillipi/pix2pix] 对抗机器学习库Cleverhans , 参考链接:[https://github.com/openai/cleverhans] 七、最新研究论文 2014 对抗实例的解释和利用(Explaining and Harnessing Adversarial

    1.2K101发布于 2018-04-10
  • 来自专栏机器之心

    综述 | 一文看尽三种针对人工智能系统的攻击技术及防御策略

    要了解更多关于此类攻击的信息,请阅读 Ian Goodfellow 关于此主题的介绍文章,或者开始尝试 Clever Hans 的实验 (https://github.com/tensorflow/cleverhans 你可以阅读 Ian 和 Nicolas 的深度文章(http://www.cleverhans.io/security/privacy/ml/2017/02/15/why-attacking-machine-learning-is-easier-than-defending-it.html 要了解更多关于 PATE 和模型窃取攻击的信息,请阅读 Ian 关于此主题的文章(http://www.cleverhans.io/privacy/2018/04/29/privacy-and-machine-learning.html

    74030发布于 2018-07-26
  • 来自专栏ShoelessCai

    蚂蚁集团联手上海财经大学:揭开AI大模型在金融领域的神秘面纱 读书笔记 - VI

    在图像领域已有CleverHans、Foolbox、Adversarial Robustness Toolbox (ART)等多个对抗攻击工具包,这些工具包将图像领域的对抗攻击模型整合在一起,大大减少了模型复现的时间和难度 CleverHans,该平台的攻防框架,将攻防算法模块化,全球研究者能在这一平台上,快速研发不同的对抗样本生成算法和防御算法。以 FGSM 和 PGD 为例,生成对抗样本,与干净样本对比正确率。 以 FGSM 为例,如下述方式定义参数,使用 CleverHans 平台。

    34110编辑于 2024-11-08
领券