光流网络对抗性攻击与性能的影响 光流网络在自动驾驶汽车等安全关键应用中扮演着重要的角色,因此了解这些技术的稳健性非常重要。最近,有研究表明,对抗性攻击很容易欺骗深度神经网络对对象进行然而,光流网络对抗攻击的鲁棒性迄今为止还没有研究。在本文中,我们将对抗补丁攻击扩展到光流网络,并表明这种攻击可以损害其性能。 光流是指图像序列中每个像素的表观2D运动。经典公式寻求两个连续图像之间的光流(u,v),其序列使亮度恒定性最小化。在自动驾驶汽车等应用中,光流用于估计车辆周围的运动。 深度神经网络在光流估计问题上实现了最先进的性能。但是,对抗性攻击可能会欺骗这些网络,对对象进行。我们发现,损坏小于1%的图像大小的小补丁可以显着影响光流估计。我们的攻击导致噪声流估计,大大超出了攻击区域,在许多情况下,甚至完全消除了场景中对象的运动。 我们分析了成功和失败的攻击这两种架构,通过可视化他们的特征图,并比较他们的经典光流技术,这是鲁棒的这些攻击。我们还表明,这种攻击是实际的,通过将印刷图案到真实的场景。 在光流网络中,我们对比了两种架构类型下的对抗性攻击的鲁棒性。我们发现使用编码器-解码器架构的网络对这些攻击非常敏感,但我们发现使用空间金字塔架构的网络受到的影响较小。 在汽车场景中,用于自动驾驶的摄像头通常位于挡风玻璃后面。补丁攻击可以通过将补丁放置在汽车的挡风玻璃上或将其放置在场景中(例如,在交通标志或其它车辆上)。注意,当贴片具有零运动w.r.t.相机,经典的光流算法估计零光流的补丁。然而,这种工程补丁,即使它没有运动,也可能导致编码器-解码器架构的光流预测严重错误。 对抗补丁攻击可以通过将印刷图案到真实的场景来实现。我们表明,这种攻击是实际的,并且可以损害光流网络的性能。我们的攻击导致噪声流估计,大大超出了攻击区域,在许多情况下,甚至完全消除了场景中对象的运动。 我们的研究表明,对抗补丁攻击可以损害光流网络的性能,并且这种攻击是实际的。因此,在自动驾驶汽车等安全关键应用中,了解光流网络的鲁棒性非常重要。 在未来,我们计划继续研究光流网络的鲁棒性,并探索新的方法来改进它们的性能。在自动驾驶汽车等安全关键应用中,了解光流网络的鲁棒性非常重要,因此,我们的研究结果对这些应用具有重要的影响。 我们认为,光流网络的鲁棒性是一个重要的研究方向,需要继续研究和探索。我们的研究结果将有助于提高光流网络的性能,并且提高自动驾驶汽车等安全关键应用的安全性。 我们的研究表明,对抗补丁攻击可以损害光流网络的性能,并且这种攻击是实际的。我们的研究结果对自动驾驶汽车等安全关键应用具有重要的影响,并且将有助于提高光流网络的鲁棒性和性能。
2025-10-31 14:29:48 2.53MB 对抗攻击 神经网络
1
假冒 论文“谁是真正的鲍勃?说话人识别系统的对抗攻击”的源代码。 演示网站: (包括一分钟的视频预览) 我们的论文已被。 纸质链接 。 引用我们的论文如下: @INPROCEEDINGS {chen2019real, author = {G. Chen and S. Chen and L. Fan and X. Du and Z. Zhao and F. Song and Y. Liu}, booktitle = {2021 2021 IEEE Symposium on Security and Privacy (SP)}, title = {Who is Real Bob? Adversarial Attacks on Speaker Recognition Systems}, year = {2021}, volume = {},
1
2023年最新入门对抗样本、对抗攻击与防御的最佳教程,里面包含总结好的攻击跟防御代码 并有详细介绍。 有入门到精通,该教程最通俗易懂。 对抗样本是各种机器学习系统需要克服的一大障碍。对抗样本的存在表明模型倾向于依赖不可靠的特征来最大化性能,如果特征受到干扰,那么将造成模型误分类,可能导致灾难性的后果。对抗样本的非正式定义:以人类不可感知的方式对输入进行修改,使得修改后的输入能够被机器学习系统误分类,尽管原始输入是被正确分类的。这一修改后的输入即被称为对抗样本。 敌手在恶意设计扰动,让自动驾驶汽车直线拐弯[10],让目标检测失灵[11],让人脸识别系统失效[12]。我不放心你做事啊,尤其是人命关天的任务。
2023-02-05 22:37:03 6.19MB 对抗样本 对抗攻击 对抗鲁棒性
1
对抗攻击方法一览(详细).doc
2022-07-08 18:07:41 2.34MB 技术资料
cleverhans源代码
1
对抗攻击算法总结,包括MIM、FGSM、PGD、C&W、L-BFGS、JSMA 、MalGAN、DeepFool等攻击算法
2022-04-26 18:36:57 674KB 算法 对抗攻击 MIM PGD
1
高效的基于决策的人脸识别黑匣子对抗攻击
2022-03-31 16:07:27 2.37MB 研究论文
1
GTSRB数据上的敌对攻击 我们的项目专注于创建在神经网络上产生对抗性攻击的算法,并测试在GTSRB数据集上训练的这些神经网络的强度。 在此项目的生命周期中,在三种不同的模型上创建并测试了四种技术。 在我们的第一种方法中,我们创建了一个随机模糊器,它将随机修改像素的RGB值,直到对图像进行错误分类为止。 对于第二种方法,我们在图像上应用了高斯滤波器,并检查了分类错误。 在第三种方法中,我们混合了两个相同类别的图像,然后对它们应用高斯滤波器。 对于第四个也是最后一个方法,我们实现了FGSM方法,该方法会根据图像的梯度添加噪声。
2022-01-13 10:59:56 730KB JupyterNotebook
1
高效的暖启动预计梯度下降(EWR-PGD) 我们提出了一种新的名为EWR-PGD的白盒对抗攻击方法,该方法超越了最新的攻击性能。 它比最新的方法更有效。 代码即将推出。 EWR-PGD和ODI-PGD的比较 当将模型降低到相同的精度时,EWR-PGD所需的重新启动次数明显少于ODI-PGD的重新启动次数。 EWR-PGD的速度大约是ODI-PGD的5倍。 图1.在10个最新的防御模型上,当EWR-PGD和ODI-PGD方法将模型降低到相同精度时,所需重启次数的比较(越低越好)。 这些模型可在线获得: 3个白盒排行榜上的结果 EWR-PGD在TRADES白盒MNIST和CIFAR-10排行榜上排名第一,将MNIST模型的准确性降低到92.52%,将CIFAR-10模型的准确性降低到52.95%。 EWR-PGD在MardyLab的CIFAR-10白名单排行榜中也排名第一,将其CI
2021-12-26 01:01:50 194KB
1