当前位置: X-MOL 学术Neurocomputing › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Adversarial point cloud perturbations against 3D object detection in autonomous driving systems
Neurocomputing ( IF 5.5 ) Pub Date : 2021-09-20 , DOI: 10.1016/j.neucom.2021.09.027
Xupeng Wang 1 , Mumuxin Cai 1 , Ferdous Sohel 2 , Nan Sang 1 , Zhengwei Chang 3
Affiliation  

Deep learning models have been demonstrated vulnerable to adversarial attacks even with imperceptible perturbations. As such, the reliability of existing deep neural networks-based autonomous driving systems can suffer. However, deep 3D models have applications in various Cyber-Physical Systems (CPSs) with safety-critical requirements, particularly autonomous driving systems. In this paper, the robustness of deep 3D object detection models under adversarial point cloud perturbations has been investigated. A novel method is developed to generate 3D adversarial examples from point cloud perturbations, which are common due to the intrinsic characteristics of the data captured by 3D sensors, e.g., LiDAR. The generation of adversarial samples is supervised by a dual loss, which constitutes an adversarial loss and a perturbation loss. The adversarial loss produces a point cloud with the property of aggressiveness, while the perturbation loss enforces the produced point cloud subject to visual imperception. We demonstrate that the method can successfully attack 3D object detection models in most cases, and expose their vulnerability to physical-world attacks in the form of point cloud perturbations. We perform a thorough evaluation of popular deep 3D object detectors in an adversarial setting on the KITTI vision benchmark. Experimental results show that current deep 3D object detection models are susceptible to adversarial attacks in the context of autonomous driving, and their performances are degraded by a large margin in the presence of adversarial point clouds generated by the proposed method.



中文翻译:

自动驾驶系统中对抗 3D 物体检测的对抗性点云扰动

深度学习模型已被证明容易受到对抗性攻击,即使是在难以察觉的扰动下。因此,现有的基于深度神经网络的自动驾驶系统的可靠性可能会受到影响。然而,深度 3D 模型在各种具有安全关键要求的网络物理系统 (CPS) 中都有应用,尤其是自动驾驶系统。在本文中,研究了在对抗性点云扰动下深度 3D 对象检测模型的鲁棒性。开发了一种新方法来从点云扰动生成 3D 对抗样本,这很常见,因为 3D 传感器(例如 LiDAR)捕获的数据具有固有特性。对抗样本的生成受到双重损失的监督,这构成了对抗性损失和扰动损失。对抗性损失产生具有侵略性的点云,而扰动损失使产生的点云受到视觉感知。我们证明该方法可以在大多数情况下成功攻击 3D 对象检测模型,并以点云扰动的形式暴露它们对物理世界攻击的脆弱性。我们在 KITTI 视觉基准的对抗性设置中对流行的深度 3D 对象检测器进行了全面评估。实验结果表明,当前的深度 3D 对象检测模型在自动驾驶的背景下容易受到对抗性攻击,并且在存在由所提出的方法生成的对抗性点云的情况下,其性能大幅下降。而扰动损失使产生的点云受视觉感知的影响。我们证明该方法可以在大多数情况下成功攻击 3D 对象检测模型,并以点云扰动的形式暴露它们对物理世界攻击的脆弱性。我们在 KITTI 视觉基准的对抗性设置中对流行的深度 3D 对象检测器进行了全面评估。实验结果表明,当前的深度 3D 对象检测模型在自动驾驶的背景下容易受到对抗性攻击,并且在存在由所提出的方法生成的对抗性点云的情况下,其性能大幅下降。而扰动损失使产生的点云受视觉感知的影响。我们证明该方法可以在大多数情况下成功攻击 3D 对象检测模型,并以点云扰动的形式暴露它们对物理世界攻击的脆弱性。我们在 KITTI 视觉基准的对抗性设置中对流行的深度 3D 对象检测器进行了全面评估。实验结果表明,当前的深度 3D 对象检测模型在自动驾驶的背景下容易受到对抗性攻击,并且在存在由所提出的方法生成的对抗性点云的情况下,其性能大幅下降。我们证明该方法可以在大多数情况下成功攻击 3D 对象检测模型,并以点云扰动的形式暴露它们对物理世界攻击的脆弱性。我们在 KITTI 视觉基准的对抗性设置中对流行的深度 3D 对象检测器进行了全面评估。实验结果表明,当前的深度 3D 对象检测模型在自动驾驶的背景下容易受到对抗性攻击,并且在存在由所提出的方法生成的对抗性点云的情况下,其性能大幅下降。我们证明该方法可以在大多数情况下成功攻击 3D 对象检测模型,并以点云扰动的形式暴露它们对物理世界攻击的脆弱性。我们在 KITTI 视觉基准的对抗性设置中对流行的深度 3D 对象检测器进行了全面评估。实验结果表明,当前的深度 3D 对象检测模型在自动驾驶的背景下容易受到对抗性攻击,并且在存在由所提出的方法生成的对抗性点云的情况下,其性能大幅下降。

更新日期:2021-09-29
down
wechat
bug