当前位置: X-MOL 学术Int. J. Comput. Vis. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Fine-Grained Person Re-identification
International Journal of Computer Vision ( IF 19.5 ) Pub Date : 2020-01-08 , DOI: 10.1007/s11263-019-01259-0
Jiahang Yin , Ancong Wu , Wei-Shi Zheng

Person re-identification (re-id) plays a critical role in tracking people via surveillance systems by matching people across non-overlapping camera views at different locations. Although most re-id methods largely depend on the appearance features of a person, such methods always assume that the appearance information (particularly color) is distinguishable. However, distinguishing people who dress in very similar clothes (especially the same type of clothes, e.g. uniform) is ineffective if relying only on appearance cues. We call this problem the fine-grained person re-identification (FG re-id) problem. To solve this problem, rather than relying on clothing color, we propose to exploit two types of local dynamic pose features: motion-attentive local dynamic pose feature and joint-specific local dynamic pose feature . They are complementary to each other and describe identity-specific pose characteristics, which are found to be more unique and discriminative against similar appearance between people. A deep neural network is formed to learn these local dynamic pose features and to jointly quantify motion and global visual cues. Due to the lack of a suitable benchmark dataset for evaluating the FG re-id problem, we also contribute a fine-grained person re-identification (FGPR) dataset, which contains 358 identities. Extensive evaluations on the FGPR dataset show that our proposed model achieves the best performance compared with related person re-id and fine-grained recognition methods for FG re-id. In addition, we verify that our method is still effective for conventional video-based person re-id.

中文翻译:

细粒度人重识别

人员重新识别 (re-id) 通过在不同位置的非重叠摄像机视图中匹配人员,在通过监控系统跟踪人员方面发挥着关键作用。尽管大多数重新识别方法很大程度上依赖于人的外貌特征,但这些方法总是假设外貌信息(尤其是颜色)是可区分的。然而,如果仅依靠外观线索来区分穿着非常相似的衣服(尤其是相同类型的衣服,例如制服)的人是无效的。我们称这个问题为细粒度人员重新识别(FG re-id)问题。为了解决这个问题,我们建议利用两种类型的局部动态姿势特征,而不是依赖服装颜色:运动注意局部动态姿势特征和关节特定局部动态姿势特征。它们相辅相成,描述了特定于身份的姿势特征,这些特征被发现更独特,对人与人之间的相似外观更具区分力。形成一个深度神经网络来学习这些局部动态姿态特征并联合量化运动和全局视觉线索。由于缺乏合适的基准数据集来评估 FG 重识别问题,我们还提供了一个包含 358 个身份的细粒度人员重识别 (FGPR) 数据集。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。人们发现它们更独特,更能区分人与人之间的相似外表。形成一个深度神经网络来学习这些局部动态姿态特征并联合量化运动和全局视觉线索。由于缺乏合适的基准数据集来评估 FG 重识别问题,我们还提供了一个包含 358 个身份的细粒度人员重识别 (FGPR) 数据集。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。发现它们更独特,并且对人与人之间的相似外观具有歧视性。形成一个深度神经网络来学习这些局部动态姿态特征并联合量化运动和全局视觉线索。由于缺乏合适的基准数据集来评估 FG 重识别问题,我们还提供了一个包含 358 个身份的细粒度人员重识别 (FGPR) 数据集。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。形成一个深度神经网络来学习这些局部动态姿态特征并联合量化运动和全局视觉线索。由于缺乏合适的基准数据集来评估 FG 重识别问题,我们还提供了一个包含 358 个身份的细粒度人员重识别 (FGPR) 数据集。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。形成一个深度神经网络来学习这些局部动态姿态特征并联合量化运动和全局视觉线索。由于缺乏合适的基准数据集来评估 FG 重识别问题,我们还提供了一个包含 358 个身份的细粒度人员重识别 (FGPR) 数据集。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。其中包含 358 个身份。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。其中包含 358 个身份。对 FGPR 数据集的广泛评估表明,与相关人员重新识别和 FG 重新识别的细粒度识别方法相比,我们提出的模型实现了最佳性能。此外,我们验证了我们的方法对于传统的基于视频的行人重新识别仍然有效。
更新日期:2020-01-08
down
wechat
bug