对峙 对面部识别进行物理对抗攻击的步骤 在应用蒙版之后,将左侧的输入图像检测为右侧的目标图像。 安装 创建一个虚拟环境 conda create -n facial pip 克隆仓库 git clone https://github.com/392781/Face-Off.git 安装所需的库 pip install -r requirements.txt 导入和使用! from adversarial_face_recognition import * ` 有关培训说明,请查看以开始少于30行。 用法 该库的目的是再次制造对抗攻击,再用FaceNet人脸识别器。 这是初步的工作,目的是使用一个可以戴在脸上的面具来产生更强壮的物理攻击。 当前管道由对齐的输入图像和计算出的蒙版组成。 然后使用dlib定向梯度检测器直方图将其输入到面部检测器中,以测试是否仍检测到面部。 然后将其传
1
TF2中的对抗性攻击和防御库 我们提供了一个轻量级且对初学者友好的库,用于: 训练简单的图像分类器。 生成对抗性示例-扰动神经网络的输入会导致错误的输出。 通过防御这些攻击来构建更强大的分类器。 该库是检查代码和亲自尝试对抗示例的简单起点。 要更全面地了解本领域的最新技术,我们建议您查看 。 支持的数据集: 支持的攻击: 支持的防御: 安装 首先,将此存储库克隆到本地计算机上。 git clone https://github.com/summer-yue/adversarial_examples_tf2.git 使用setup.py文件导航到该目录,然后安装运行我们的代码所需的软件包。 pip install -e . 请注意,该库在及更高版本上运行。 开始使用 尝试在adversarial_examples_tf2 / experiments中运行我们的简单示例。 建立
2021-11-25 15:48:06 26KB Python
1
基于对称显着性的对抗攻击自动编码器。 安装 > git clone https://github.com/BravoLu/SSAE.git > cd SSAE > pip -r install requirements.txt 开始使用 演示版 我们在上部署了一个resnet18模型,您可以使用目录./images/original_examples/中的图像进行测试。
2021-11-09 17:09:50 37.67MB JupyterNotebook
1
对抗攻击PyTorch 是一个PyTorch库,其中包含对抗性攻击以生成对抗性示例。 干净的图像 对抗形象 目录 推荐的地点和配套 用法 :clipboard: 依存关系 火炬== 1.4.0 Python== 3.6 :hammer: 安装 pip install torchattacks或 git clone https://github.com/Harry24k/adversairal-attacks-pytorch import torchattacks atk = torchattacks . PGD ( model , eps = 8 / 255 , alpha = 2 / 255 , steps = 4 ) adversarial_images = atk ( images , labels ) :warning: 预防措施 在用于攻击之前,应使用transform [to.Tensor()]将所有图像缩放为
2021-11-09 16:08:45 10.09MB deep-learning pytorch adversarial-attacks Python
1
该存储库包含ICML 2019论文的代码: 郭川,Jacob R. Gardner,尤荣友,Andrew G. Wilson,Kilian Q. Weinberger。 简单的黑匣子对抗攻击。 我们的代码使用CUDA 9.0和Python 3.5的PyTorch(pytorch> = 0.4.1,torchvision> = 0.2.1)。 脚本run_simba.py包含用于使用各种选项运行SimBA和SimBA-DCT的代码。 要运行SimBA(像素攻击): python run_simba.py --data_root --num_iters 10000 --pixel_attack --freq_dims 224 要运行SimBA-DCT(低频攻击): python run_simba.py --data_root <imagenet_
2021-11-03 19:56:26 10KB Python
1
深度学习(Deep Learning, DL)是当前计算机视觉领域应用最广泛的工具。它精确解决复杂问题的能力被用于视觉研究,以学习各种任务的深度神经模型,包括安全关键应用。然而,现在我们知道,DL很容易受到对抗性攻击,这些攻击可以通过在图像和视频中引入视觉上难以察觉的扰动来操纵它的预测。
2021-09-06 17:20:07 5.41MB 计算机视觉 攻击与防御
1
针对现实应用的文本对抗攻击研究.pdf
2021-08-30 17:00:06 11.45MB 对抗攻击
Preliminaries TextBugger Attack Evaluation
2021-08-11 09:00:38 12.05MB 安全研究 漏洞挖掘 对抗 软件安全
图神经网络对抗攻击与防御PPT,分享了Nettack和GNNGUARD
2021-08-09 11:18:26 3.67MB 对抗攻击 图神经网络 论文分享 KDD
1
生成对抗网络白箱攻击实验相关代码,可结合使用文档,见博客记录内容。简单的实现白盒下的图片对抗攻击,将cat图片识别成面包机,且人肉眼分不出,只欺骗模型。
2021-07-19 21:37:15 260KB 生成对抗网络实验代码
1