"点云神经网络的解释性单点攻击" 点云神经网络的可解释性单点攻击是近年来研究的热点话题。随着自动驾驶和机器人领域的发展,点云数据研究的需求也随之增加。点云网络的鲁棒性和可靠性变得越来越重要,但目前仍然没有得到充分的研究。点云神经网络的攻击可以分为两类:形状可感知的生成和点移动攻击。然而,大多数的研究都集中在欺骗人类,而不是解决模型本身的操作原理。 在这项工作中,我们提出了两种基于可解释性方法的对抗性攻击:单点攻击(OPA)和关键点攻击(CTA)。我们的方法通过结合可解释性方法更精确地瞄准对预测至关重要的点。我们的研究结果表明,流行的点云网络可以被欺骗的成功率很高,只需要从输入实例中移动一个点。 点云神经网络的可解释性单点攻击的研究具有重要的现实意义。在自动驾驶和机器人领域中,点云识别系统的稳定性和透明度是至关重要的。我们的方法可以用于检测点云网络的弱点,提高点云网络的鲁棒性和可靠性。 我们的方法也可以用于生成高质量的反事实,提高用户对模型的理解和信任。通过结合部分语义,我们的方法可以被扩展为生成高质量的反事实。此外,我们的方法也可以用于检测点云网络的内部脆弱性,提高点云网络的鲁棒性和可靠性。 本文的组织结构如下:我们介绍了点云神经网络的攻击的相关研究。然后,我们详细介绍了我们提出的方法。在第四节中,我们展示了对抗性示例的可视化,并展示了与现有研究的比较结果。在第五节中,我们讨论了从实验中得出的关于鲁棒性和可解释性的有趣观察结果。我们总结了我们的工作。 我们的贡献可以总结如下: * 我们提出了两种基于可解释性方法的对抗性攻击:单点攻击(OPA)和关键点攻击(CTA)。 * 我们调查了不同的池架构作为现有点云网络的替代品,这对内部脆弱性对关键点转移有影响。 * 我们从可解释性的角度讨论了对抗性攻击的研究潜力,并提出了我们的方法在促进可解释性方法的评估方面的应用。 在未来,我们计划继续深入研究点云神经网络的可解释性单点攻击,提高点云网络的鲁棒性和可靠性,并应用于自动驾驶和机器人领域。
2025-03-28 12:19:54 1005KB 对抗性攻击
1
对抗图书馆 该库包含与PyTorch中实施的对抗性攻击有关的各种资源。 它针对寻求最新攻击实施方案的研究人员。 编写代码是为了最大程度地提高效率(例如,通过偏爱PyTorch的底层函数),同时保持简单性(例如,避免抽象)。 因此,大多数库(尤其是攻击)都是使用纯函数实现的(只要有可能)。 在着重于攻击的同时,该库还提供了一些与对抗性攻击有关的实用程序:距离(SSIM,CIEDE2000,LPIPS),可见回调,预测,损失和辅助功能。 最值得注意的是,来自utils/attack_utils.py的功能run_attack对具有给定输入和标签且具有固定批处理大小的模型进行了攻击,并报告了与复杂性相关的指标(运行时和向前/向后传播)。 依存关系 该库的目标是使用最新版本的PyTorch进行更新,以便可以定期更新依赖项(可能会导致重大更改)。 pytorch> = 1.7.0 火炬视觉>
1
强化学习对抗攻击和防御 DQN政策 战略定时攻击 统一攻击 对抗训练 该存储库为深度强化学习代理实现了一些经典的对抗攻击方法,包括( drl_attacks/ ): 统一攻击[]。 战略定时攻击[]。 临界点攻击[]。 关键策略攻击。 对抗性政策攻击[]。 也可以使用以下RL防御方法( drl_defenses/ ): 对抗训练[]。 还提供了一些图像防御方法( img_defenses/ ): JPEG转换[]。 位压缩[ ]。 图像平滑[]。 该项目大部分基于基于的RL框架守。 图片敌对攻击和防御都与实施 ,也是基于Pytorch。 相反,A2C和PPO策略基于pytorch-a2c-ppo-acktr-gail ,DQN使用了天守实现。 任何图像对抗攻击都与此项目兼容。 可用型号 它还可以在文件夹log找到适用于不同任务的训练有素的模型。 下表报告了三种
1
针对ImageNet,CIFAR10和MNIST的PyTorch对抗性攻击基准 ImageNet,CIFAR10和MNIST的PyTorch对抗性攻击基准(最先进的攻击比较) 该存储库提供了用于评估各种对抗攻击的简单PyTorch实现。 该存储库显示每个数据集的最新攻击成功率。 该存储库利用了攻击库,例如 , 等。 如果您对此存储库有疑问,请给我发送电子邮件( )或提出问题。 影像网 该存储库提供了一个包含1,000个类的小型ImageNet验证数据集。 该数据集每个班级有5张图像(总计5,000张图像)。 这是ImageNet验证数据集的子集。
2022-04-08 12:29:43 629.38MB deep-learning pytorch mnist imagenet
1
深度生成模型因其为各种应用生成数据的能力而备受关注,这些应用包括医疗保健、金融技术、监控等,其中最受欢迎的模型是生成对抗网络和变分自动编码器。然而,与所有机器学习模型一样,人们一直担心安全漏洞和隐私泄露,深度生成模型也不例外。
2021-12-09 13:20:17 632KB 深度生成模型 对抗性攻击
1
TextAttack是一个Python框架,用于对NLP模型进行对抗性攻击。 TextAttack从四个组件构建攻击:搜索方法,目标函数,转换和约束集。 TextAttack的模块化设计使其可以轻松扩展到新的NLP任务,模型和攻击策略。 TextAttack:octopus:为NLP模型生成对抗性示例文档•关于•设置•用法•设计关于TextAttack是一个Python框架,用于对NLP模型进行对抗性攻击。 TextAttack从四个组件构建攻击:搜索方法,目标函数,转换和约束集。 TextAttack的模块化设计使其可以轻松扩展到新的NLP任务,模型和攻击策略。 TextAttack当前支持对经过分类训练的模型的攻击
2021-11-29 09:10:55 5.54MB Python Natural Language Processing
1
mcs2018_挑战 第三名解决方案。 Boyara Power团队(Oleksii Hrinchuk,Valentin Khrulkov,Elena Orlova) 解决方案说明 我们的解决方案包括两部分。 首先,我们训练了模仿网络来模仿黑匣子的输出。 然后,我们使用标准的White Box定向攻击算法攻击了该替代网络,以获取受干扰的图像,并使用它们欺骗原始的Black Box。 培训模仿者网络 采用基于Inception v1架构的经过预先培训的FaceNet。 用一层512个神经元的FC层替换所有完全连接的层,然后进行BatchNorm和L2标准化。 通过对获得的网络进行10个时期的训练来微调获得的网络,每3个时期后学习速率会下降。 训练三个这样的网络,并将它们组合成整体(通过平均生成的描述符)。 为了获得更好的模仿网络,我们使用了许多数据增强技术,例如: 通过执行4种可
2021-09-05 10:59:18 12KB JupyterNotebook
1
针对ImageNet,CIFAR10和MNIST的PyTorch对抗性攻击基准 ImageNet,CIFAR10和MNIST的PyTorch对抗性攻击基准(最先进的攻击比较) 该存储库提供了用于评估各种对抗攻击的简单PyTorch实现。 该存储库显示每个数据集的最新攻击成功率。 该存储库利用了攻击库,例如 , 等。 如果您对此存储库有疑问,请给我发送电子邮件( )或提出问题。 影像网 该存储库提供了一个包含1,000个类的小型ImageNet验证数据集。 该数据集每个班级有5张图像(总计5,000张图像)。 这是ImageNet验证数据集的子集。 对抗示例的大小:224 x 224 x 3(150,528个参数) 1. Linf FGSM(非目标) Advertorch和Foolbox显示几乎相同的结果。 Epsilon大小 1/255 2/255 4/255 8/25
2021-08-26 18:19:46 629.38MB deep-learning pytorch mnist imagenet
1
以深度学习为主要代表的人工智能技术正在悄然改变人们的生产生活方式,但深度学习模型的部署也带来了一定的安全隐患.研究针对深度学习模型的攻防分析基础理论与关键技术,对深刻理解模型内在脆弱性、全面保障智能系统安全性、广泛部署人工智能应用具有重要意义。
2021-05-18 09:07:55 1.54MB 深度学习 对抗性攻击与防御
1