当前位置: X-MOL 学术Neural Netw. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Cross-modality paired-images generation and augmentation for RGB-infrared person re-identification.
Neural Networks ( IF 6.0 ) Pub Date : 2020-05-19 , DOI: 10.1016/j.neunet.2020.05.008
Guan'an Wang 1 , Yang Yang 2 , Tianzhu Zhang 3 , Jian Cheng 4 , Zengguang Hou 4 , Prayag Tiwari 5 , Hari Mohan Pandey 6
Affiliation  

RGB-Infrared (IR) person re-identification is very challenging due to the large cross-modality variations between RGB and IR images. Considering no correspondence labels between every pair of RGB and IR images, most methods try to alleviate the variations with set-level alignment by reducing marginal distribution divergence between the entire RGB and IR sets. However, this set-level alignment strategy may lead to misalignment of some instances, which limit the performance for RGB–IR Re-ID. Different from existing methods, in this paper, we propose to generate cross-modality paired-images and perform both global set-level and fine-grained instance-level alignments. Our proposed method enjoys several merits. First, our method can perform set-level alignment by disentangling modality-specific and modality-invariant features. Compared with conventional methods, ours can explicitly remove the modality-specific features and the modality variation can be better reduced. Second, given cross-modality unpaired-images of a person, our method can generate cross-modality paired images from exchanged features. With them, we can directly perform instance-level alignment by minimizing distances of every pair of images. Third, our method learns a latent manifold space. In the space, we can random sample and generate lots of images of unseen classes. Training with those images, the learned identity feature space is more smooth can generalize better when test. Finally, extensive experimental results on two standard benchmarks demonstrate that the proposed model favorably against state-of-the-art methods.



中文翻译:

跨模态配对图像的生成和增强,用于RGB红外人的重新识别。

由于RGB和IR图像之间存在较大的交叉模态变化,因此RGB红外(IR)人的重新识别非常具有挑战性。考虑到每对RGB和IR图像之间都没有对应标签,大多数方法都试图通过减少整个RGB和IR集之间的边际分布差异来缓解集级别对齐的变化。但是,这种集合级对齐策略可能会导致某些实例的对齐错误,从而限制了RGB-IR Re-ID的性能。与现有方法不同,在本文中,我们建议生成跨模式配对图像,并执行全局集合级和细粒度实例级对齐。我们提出的方法有很多优点。首先,我们的方法可以通过解开特定于模态和模态不变的特征来执行集合级对齐。与传统方法相比,我们的方法可以显式删除特定于模态的特征,并且可以更好地减少模态变化。其次,给定一个人的跨模态不成对图像,我们的方法可以从交换的特征生成跨模态成对图像。使用它们,我们可以通过最小化每对图像的距离直接执行实例级对齐。第三,我们的方法学习潜在的流形空间。在空间中,我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们可以明确删除特定于模态的特征,并且可以更好地减少模态变化。其次,给定一个人的跨模态不成对图像,我们的方法可以从交换的特征生成跨模态成对图像。使用它们,我们可以通过最小化每对图像的距离直接执行实例级对齐。第三,我们的方法学习潜在的流形空间。在空间中,我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们可以显式删除特定于模态的特征,并且可以更好地减少模态变化。其次,给定一个人的跨模态不成对图像,我们的方法可以从交换的特征生成跨模态成对图像。有了它们,我们可以通过最小化每对图像的距离直接执行实例级对齐。第三,我们的方法学习潜在的流形空间。在空间中,我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们的方法可以从交换的特征生成跨模态配对图像。使用它们,我们可以通过最小化每对图像的距离直接执行实例级对齐。第三,我们的方法学习潜在的流形空间。在空间中,我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们的方法可以从交换的特征生成跨模态配对图像。有了它们,我们可以通过最小化每对图像的距离直接执行实例级对齐。第三,我们的方法学习潜在的流形空间。在空间中,我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。我们可以随机采样并生成许多看不见的类的图像。用这些图像进行训练,在测试时,学习到的身份特征空间更加平滑,可以更好地推广。最后,在两个标准基准上的大量实验结果表明,所提出的模型有利于对抗最新方法。

更新日期:2020-05-19
down
wechat
bug