当前位置: X-MOL 学术Inform. Sci. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Viewpoint adaptation learning with cross-view distance metric for robust vehicle re-identification
Information Sciences ( IF 8.1 ) Pub Date : 2021-02-26 , DOI: 10.1016/j.ins.2021.02.013
Qi Wang , Weidong Min , Qing Han , Ziyuan Yang , Xin Xiong , MengZhu , Haoyu Zhao

Many vehicle re-identification (Re-ID) problems require the robust recognition of vehicle instances across multiple viewpoints. Existing approaches for dealing with the vehicle re-ID problem are insufficiently robust because they cannot distinguish among vehicles of the same type nor recognize high-level representations in deep networks for identical vehicles with various views. To address these issues, this paper proposes a viewpoint adaptation network (VANet) with a cross-view distance metric for robust vehicle Re-ID. This method consists of two modules. The first module is the VANet with cross-view label smoothing regularization (CVLSR), which abstracts different levels of a vehicle’s visual patterns and subsequently integrates multi-level features. In particular, CVLSR based on color domains assigns a virtual label to the generated data to smooth image-image translation noise. Accordingly, this module supplies the viewing angle information of the training data and provides strong robust capability for vehicles across different viewpoints. The second module is the cross-view distance metric, which designs a cascaded cross-view matching approach to combine the original features with the generated ones, and thus, obtain additional supplementary viewpoint information for the multi-view matching of vehicles. Results of extensive experiments on two large scale vehicle Re-ID datasets, namely, VeRi-776 and VehiclelD demonstrate that the performance of the proposed method is robust and superior to other state-of-the-art Re-ID methods across multiple viewpoints.



中文翻译:

具有交叉视野距离度量的视点适应学习可实现可靠的车辆重新识别

许多车辆重新识别(Re-ID)问题要求跨多个视点对车辆实例进行可靠的识别。现有的解决车辆重新识别问题的方法不够鲁棒,因为它们无法区分相同类型的车辆,也无法识别具有不同视图的相同车辆的深度网络中的高级表示。为了解决这些问题,本文提出了一种具有交叉视野距离度量的视点自适应网络(VANet),用于鲁棒车辆Re-ID。此方法包含两个模块。第一个模块是具有跨视图标签平滑规则化(CVLSR)的VANet,该模型抽象出不同级别的车辆视觉模式,并随后集成了多级功能。特别是,基于色域的CVLSR将虚拟标签分配给生成的数据,以平滑图像-图像转换噪声。因此,该模块提供了训练数据的视角信息,并为跨不同视点的车辆提供了强大的鲁棒能力。第二个模块是交叉视图距离度量,它设计了一种级联的交叉视图匹配方法,以将原始特征与生成的特征相结合,从而获得用于车辆多视图匹配的附加补充视点信息。在两个大型车辆Re-ID数据集,即VeRi-776和VehiclelD上进行的广泛实验的结果表明,所提出的方法的性能强大且优于多视点的其他最新Re-ID方法。该模块提供训练数据的视角信息,并为跨不同视点的车辆提供强大的鲁棒能力。第二个模块是交叉视图距离度量,它设计了一种级联的交叉视图匹配方法,以将原始特征与生成的特征相结合,从而获得用于车辆多视图匹配的附加补充视点信息。在两个大型车辆Re-ID数据集,即VeRi-776和VehiclelD上进行的广泛实验的结果表明,所提出的方法的性能强大且优于多视点的其他最新Re-ID方法。该模块提供训练数据的视角信息,并为跨不同视点的车辆提供强大的鲁棒能力。第二个模块是交叉视图距离度量,它设计了一种级联的交叉视图匹配方法,以将原始特征与生成的特征相结合,从而获得用于车辆多视图匹配的附加补充视点信息。在两个大型车辆Re-ID数据集,即VeRi-776和VehiclelD上进行的广泛实验的结果表明,所提方法的性能强大,并且在多个角度上均优于其他最新的Re-ID方法。第二个模块是交叉视图距离度量,它设计了一种级联的交叉视图匹配方法,以将原始特征与生成的特征相结合,从而获得用于车辆多视图匹配的附加补充视点信息。在两个大型车辆Re-ID数据集,即VeRi-776和VehiclelD上进行的广泛实验的结果表明,所提方法的性能强大,并且在多个角度上均优于其他最新的Re-ID方法。第二个模块是交叉视图距离度量,它设计了一种级联的交叉视图匹配方法,以将原始特征与生成的特征相结合,从而获得用于车辆多视图匹配的附加补充视点信息。在两个大型车辆Re-ID数据集,即VeRi-776和VehicleID上进行的广泛实验的结果表明,所提方法的性能强大且优于多视点的其他最新Re-ID方法。

更新日期:2021-03-12
down
wechat
bug