当前位置: X-MOL 学术IEEE Trans. Intell. Transp. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Automatic Traffic Sign Detection and Recognition Using SegU-Net and a Modified Tversky Loss Function With L1-Constraint
IEEE Transactions on Intelligent Transportation Systems ( IF 7.9 ) Pub Date : 2020-04-01 , DOI: 10.1109/tits.2019.2911727
Uday Kamal , Thamidul Islam Tonmoy , Sowmitra Das , Md. Kamrul Hasan

Traffic sign detection is a central part of autonomous vehicle technology. Recent advances in deep learning algorithms have motivated researchers to use neural networks to perform this task. In this paper, we look at traffic sign detection as an image segmentation problem and propose a deep convolutional neural network-based approach to solve it. To this end, we propose a new network, the SegU-Net, which we form by merging the state-of-the-art segmentation architectures–SegNet and U-Net to detect traffic signs from video sequences. For training the network, we use the Tversky loss function constrained by an L1 term instead of the intersection over union loss traditionally used to train segmentation networks. We use a separate network, inspired by the VGG-16 architecture, to classify the detected signs. The networks are trained on the challenge free sequences of the CURE-TSD dataset. Our proposed network outperforms the state-of-the-art object detection networks, such as the Faster R-CNN inception Resnet V2 and R-FCN Resnet 101, by a large margin and obtains a precision and recall of 94.60% and 80.21%, respectively, which is the current state of the art on this part of the dataset. In addition, the network is tested on the German Traffic Sign Detection Benchmark (GTSDB) dataset, where it achieves a precision and recall of 95.29% and 89.01%, respectively. This is on a par with the performance of the aforementioned object detection networks. These results prove the generalizability of the proposed architecture and its suitability for robust traffic sign detection in autonomous vehicles.

中文翻译:

使用 SegU-Net 和具有 L1 约束的改进 Tversky 损失函数的自动交通标志检测和识别

交通标志检测是自动驾驶汽车技术的核心部分。深度学习算法的最新进展促使研究人员使用神经网络来执行此任务。在本文中,我们将交通标志检测视为图像分割问题,并提出了一种基于深度卷积神经网络的方法来解决该问题。为此,我们提出了一个新网络,即 SegU-Net,我们通过合并最先进的分割架构——SegNet 和 U-Net 来检测视频序列中的交通标志。为了训练网络,我们使用受 L1 项约束的 Tversky 损失函数,而不是传统上用于训练分割网络的联合损失的交集。我们使用受 VGG-16 架构启发的独立网络对检测到的标志进行分类。网络在 CURE-TSD 数据集的无挑战序列上进行训练。我们提出的网络大大优于最先进的目标检测网络,例如 Faster R-CNN inception Resnet V2 和 R-FCN Resnet 101,并获得了 94.60% 和 80.21% 的准确率和召回率,分别是这部分数据集的当前技术水平。此外,该网络在德国交通标志检测基准 (GTSDB) 数据集上进行了测试,其准确率和召回率分别达到 95.29% 和 89.01%。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。我们提出的网络大大优于最先进的对象检测网络,例如 Faster R-CNN inception Resnet V2 和 R-FCN Resnet 101,并获得了 94.60% 和 80.21% 的准确率和召回率,分别是这部分数据集的当前技术水平。此外,该网络在德国交通标志检测基准 (GTSDB) 数据集上进行了测试,其准确率和召回率分别达到 95.29% 和 89.01%。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。我们提出的网络大大优于最先进的目标检测网络,例如 Faster R-CNN inception Resnet V2 和 R-FCN Resnet 101,并获得了 94.60% 和 80.21% 的准确率和召回率,分别是这部分数据集的当前技术水平。此外,该网络在德国交通标志检测基准 (GTSDB) 数据集上进行了测试,其准确率和召回率分别达到 95.29% 和 89.01%。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。大幅度提高,准确率和召回率分别为 94.60% 和 80.21%,这是数据集这部分的当前技术水平。此外,该网络在德国交通标志检测基准 (GTSDB) 数据集上进行了测试,其准确率和召回率分别达到 95.29% 和 89.01%。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。大幅度提高,准确率和召回率分别为 94.60% 和 80.21%,这是数据集这部分的当前技术水平。此外,该网络在德国交通标志检测基准 (GTSDB) 数据集上进行了测试,其准确率和召回率分别达到 95.29% 和 89.01%。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。分别。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。分别。这与上述对象检测网络的性能相当。这些结果证明了所提出的架构的普遍性及其对自动驾驶汽车中鲁棒交通标志检测的适用性。
更新日期:2020-04-01
down
wechat
bug