当前位置: X-MOL 学术IEEE Trans. Neural Netw. Learn. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
IAUnet: Global Context-Aware Feature Learning for Person Reidentification
IEEE Transactions on Neural Networks and Learning Systems ( IF 10.2 ) Pub Date : 2020-09-02 , DOI: 10.1109/tnnls.2020.3017939
Ruibing Hou , Bingpeng Ma , Hong Chang , Xinqian Gu , Shiguang Shan , Xilin Chen

Person reidentification (reID) by convolutional neural network (CNN)-based networks has achieved favorable performance in recent years. However, most of existing CNN-based methods do not take full advantage of spatial–temporal context modeling. In fact, the global spatial–temporal context can greatly clarify local distractions to enhance the target feature representation. To comprehensively leverage the spatial–temporal context information, in this work, we present a novel block, interaction–aggregation-update (IAU), for high-performance person reID. First, the spatial–temporal IAU (STIAU) module is introduced. STIAU jointly incorporates two types of contextual interactions into a CNN framework for target feature learning. Here, the spatial interactions learn to compute the contextual dependencies between different body parts of a single frame, while the temporal interactions are used to capture the contextual dependencies between the same body parts across all frames. Furthermore, a channel IAU (CIAU) module is designed to model the semantic contextual interactions between channel features to enhance the feature representation, especially for small-scale visual cues and body parts. Therefore, the IAU block enables the feature to incorporate the globally spatial, temporal, and channel context. It is lightweight, end-to-end trainable, and can be easily plugged into existing CNNs to form IAUnet. The experiments show that IAUnet performs favorably against state of the art on both image and video reID tasks and achieves compelling results on a general object categorization task. The source code is available at https://github.com/blue-blue272/ImgReID-IAnet .

中文翻译:

IAUnet:用于人员重新识别的全局上下文感知特征学习

近年来,基于卷积神经网络 (CNN) 的网络进行的行人重识别 (reID) 取得了良好的性能。然而,大多数现有的基于 CNN 的方法并没有充分利用时空上下文建模。事实上,全局时空上下文可以极大地澄清局部干扰以增强目标特征表示。为了全面利用时空上下文信息,在这项工作中,我们提出了一个新的块,交互聚合更新(IAU),用于高性能人 reID。首先,引入了时空 IAU(STIAU)模块。STIAU 联合将两种类型的上下文交互合并到 CNN 框架中,用于目标特征学习。在这里,空间交互学习计算单个帧的不同身体部位之间的上下文依赖关系,而时间交互用于捕获所有帧中相同身体部位之间的上下文相关性。此外,通道 IAU (CIAU) 模块旨在对通道特征之间的语义上下文交互进行建模,以增强特征表示,特别是对于小规模视觉线索和身体部位。因此,IAU 块使该特征能够结合全局空间、时间和通道上下文。它是轻量级的、端到端可训练的,并且可以轻松插入现有的 CNN 以形成 IAUnet。实验表明,IAUnet 在图像和视频 reID 任务上的表现优于最先进的技术,并在一般对象分类任务上取得了令人信服的结果。源代码可在 此外,通道 IAU (CIAU) 模块旨在对通道特征之间的语义上下文交互进行建模,以增强特征表示,特别是对于小规模视觉线索和身体部位。因此,IAU 块使该特征能够结合全局空间、时间和通道上下文。它是轻量级的、端到端可训练的,并且可以轻松插入现有的 CNN 以形成 IAUnet。实验表明,IAUnet 在图像和视频 reID 任务上的表现优于最先进的技术,并在一般对象分类任务上取得了令人信服的结果。源代码可在 此外,通道 IAU (CIAU) 模块旨在对通道特征之间的语义上下文交互进行建模,以增强特征表示,特别是对于小规模视觉线索和身体部位。因此,IAU 块使该特征能够结合全局空间、时间和通道上下文。它是轻量级的、端到端可训练的,并且可以轻松插入现有的 CNN 以形成 IAUnet。实验表明,IAUnet 在图像和视频 reID 任务上的表现优于最先进的技术,并在一般对象分类任务上取得了令人信服的结果。源代码可在 因此,IAU 块使该特征能够结合全局空间、时间和通道上下文。它是轻量级的、端到端可训练的,并且可以轻松插入现有的 CNN 以形成 IAUnet。实验表明,IAUnet 在图像和视频 reID 任务上的表现优于最先进的技术,并在一般对象分类任务上取得了令人信服的结果。源代码可在 因此,IAU 块使该特征能够结合全局空间、时间和通道上下文。它是轻量级的、端到端可训练的,并且可以轻松插入现有的 CNN 以形成 IAUnet。实验表明,IAUnet 在图像和视频 reID 任务上的表现优于最先进的技术,并在一般对象分类任务上取得了令人信服的结果。源代码可在https://github.com/blue-blue272/ImgReID-IAnet .
更新日期:2020-09-02
down
wechat
bug