当前位置: X-MOL 学术Int. J. Adv. Robot. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Multi-attribute self-attention guided vehicle local region detection based on convolutional neural network architecture
International Journal of Advanced Robotic Systems ( IF 2.1 ) Pub Date : 2020-07-01 , DOI: 10.1177/1729881420944343
Jingbo Chen 1 , Shengyong Chen 1 , Linjie Bian 1
Affiliation  

Many pieces of information are included in the front region of a vehicle, especially in windshield and bumper regions. Thus, windshield or bumper region detection is making sense to extract useful information. But the existing windshield and bumper detection methods based on traditional artificial features are not robust enough. Those features may become invalid in many real situations (e.g. occlude, illumination change, viewpoint change.). In this article, we propose a multi-attribute-guided vehicle discriminately region detection method based on convolutional neural network and not rely on bounding box regression. We separate the net into two branches, respectively, for identification (ID) and Model attributes training. Therefore, the feature spaces of different attributes become more independent. Additionally, we embed a self-attention block into our framework to improve the performance of local region detection. We train our model on PKU_VD data set which has a huge number of images inside. Furthermore, we labeled the handcrafted bounding boxes on 5000 randomly picked testing images, and 1020 of them are used for evaluation and 3980 as the training data for YOLOv3. We use Intersection over Union for quantitative evaluation. Experiments were conducted in three different latest convolutional neural network trunks to illustrate the detection performance of the proposed method. Simultaneously, in terms of quantitative evaluation, the performance of our method is close to YOLOv3 even without handcrafted bounding boxes.

中文翻译:

基于卷积神经网络架构的多属性自注意力引导车辆局部区域检测

许多信息包含在车辆的前部区域,尤其是挡风玻璃和保险杠区域。因此,挡风玻璃或保险杠区域检测对于提取有用信息很有意义。但是现有的基于传统人工特征的挡风玻璃和保险杠检测方法不够稳健。在许多实际情况下(例如遮挡、光照变化、视点变化),这些特征可能会变得无效。在本文中,我们提出了一种基于卷积神经网络而不依赖于边界框回归的多属性引导车辆区分区域检测方法。我们将网络分成两个分支,分别用于识别(ID)和模型属性训练。因此,不同属性的特征空间变得更加独立。此外,我们在我们的框架中嵌入了一个自我注意块,以提高局部区域检测的性能。我们在 PKU_VD 数据集上训练我们的模型,其中包含大量图像。此外,我们在 5000 张随机选取的测试图像上标记了手工制作的边界框,其中 1020 个用于评估,3980 个用作 YOLOv3 的训练数据。我们使用 Intersection over Union 进行定量评估。在三个不同的最新卷积神经网络主干中进行了实验,以说明所提出方法的检测性能。同时,在定量评估方面,即使没有手工制作的边界框,我们的方法的性能也接近 YOLOv3。我们在 PKU_VD 数据集上训练我们的模型,其中包含大量图像。此外,我们在 5000 张随机选取的测试图像上标记了手工制作的边界框,其中 1020 个用于评估,3980 个用作 YOLOv3 的训练数据。我们使用 Intersection over Union 进行定量评估。在三个不同的最新卷积神经网络主干中进行了实验,以说明所提出方法的检测性能。同时,在定量评估方面,即使没有手工制作的边界框,我们的方法的性能也接近 YOLOv3。我们在 PKU_VD 数据集上训练我们的模型,其中包含大量图像。此外,我们在 5000 张随机选取的测试图像上标记了手工制作的边界框,其中 1020 个用于评估,3980 个用作 YOLOv3 的训练数据。我们使用 Intersection over Union 进行定量评估。在三个不同的最新卷积神经网络主干中进行了实验,以说明所提出方法的检测性能。同时,在定量评估方面,即使没有手工制作的边界框,我们的方法的性能也接近 YOLOv3。在三个不同的最新卷积神经网络主干中进行了实验,以说明所提出方法的检测性能。同时,在定量评估方面,即使没有手工制作的边界框,我们的方法的性能也接近 YOLOv3。在三个不同的最新卷积神经网络主干中进行了实验,以说明所提出方法的检测性能。同时,在定量评估方面,即使没有手工制作的边界框,我们的方法的性能也接近 YOLOv3。
更新日期:2020-07-01
down
wechat
bug