当前位置: X-MOL 学术IEEE ASME Trans. Mechatron. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Covert Attacks Through Adversarial Learning: Study of Lane Keeping Attacks on the Safety of Autonomous Vehicles
IEEE/ASME Transactions on Mechatronics ( IF 6.4 ) Pub Date : 2021-03-09 , DOI: 10.1109/tmech.2021.3064816
Faezeh Farivar , Mohammad Sayad Haghighi , Alireza Jolfaei , Sheng Wen

Road management systems are to improve in terms of integrity, mobility, sustainability, and safety by the adoption of artificial intelligence and Internet of Things services. This article introduces the concept of covert attacks on autonomous vehicles which can jeopardize the safety of passengers. Covert attacks are designed to manipulate outputs of cyber physical systems through network channels in a way that while the changes are not easily perceptible by human beings, systems are negatively affected in the long run. We argue that future smart vehicles are vulnerable to viruses which can use adversarial learning methods to adapt themselves to hosts and remain stealth for a long period. As a case study, we design a covert attack on the lane keeping system of autonomous vehicles. In the scenario, an intelligent adversary manipulates sensor readings (lane position, curvature, etc.) in order to deceive the controller to drive the vehicle closer to the boundaries. The virus/attacker interactively learns the host vehicle behaviors in terms of lateral deviation and maneuverability and tries to increase the errors to the extent that remains unnoticeable to the driver. This process is carried out through actor-critic learning based on the Newton--Raphson method. We additionally design an intrusion detection system for such covert attacks. We use the GPS data and offline maps to reconstruct road curves and match them against readings. A simulation testbed is developed based on the map of Nurburgring-Grand Prix track to evaluate our models. Results confirm the validity and effectiveness of the proposed models.

中文翻译:

通过对抗学习进行隐蔽攻击:车道保持攻击对自动驾驶汽车安全性的研究

通过采用人工智能和物联网服务,道路管理系统将在完整性、流动性、可持续性和安全性方面进行改进。本文介绍了对自动驾驶汽车进行秘密攻击的概念,这种攻击可能危及乘客的安全。隐蔽攻击旨在通过网络渠道操纵网络物理系统的输出,虽然这些变化不容易被人类察觉,但从长远来看,系统会受到负面影响。我们认为未来的智能车辆容易受到病毒的攻击,病毒可以使用对抗性学习方法来适应宿主并长时间保持隐身。作为案例研究,我们设计了对自动驾驶汽车车道保持系统的隐蔽攻击。在场景中,智能对手操纵传感器读数(车道位置、曲率等),以欺骗控制器将车辆驶近边界。病毒/攻击者在横向偏差和机动性方面交互式地学习宿主车辆的行为,并试图将错误增加到驾驶员无法察觉的程度。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。) 以欺骗管制员驾驶车辆接近边界。病毒/攻击者在横向偏差和机动性方面交互式地学习宿主车辆的行为,并试图将错误增加到驾驶员无法察觉的程度。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。) 以欺骗管制员驾驶车辆接近边界。病毒/攻击者在横向偏差和机动性方面交互式地学习宿主车辆的行为,并试图将错误增加到驾驶员无法察觉的程度。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。病毒/攻击者在横向偏差和机动性方面交互式地学习宿主车辆的行为,并试图将错误增加到驾驶员无法察觉的程度。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。病毒/攻击者在横向偏差和机动性方面交互式地学习宿主车辆的行为,并试图将错误增加到驾驶员无法察觉的程度。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。这个过程是通过基于 Newton--Raphson 方法的 actor-critic 学习来进行的。我们还为这种隐蔽攻击设计了一个入侵检测系统。我们使用 GPS 数据和离线地图来重建道路曲线并将它们与读数进行匹配。基于纽博格林大奖赛赛道的地图开发了一个模拟测试台来评估我们的模型。结果证实了所提出模型的有效性和有效性。
更新日期:2021-03-09
down
wechat
bug