当前位置: X-MOL 学术Image Vis. Comput. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Learning auto-scale representations for person re-identification
Image and Vision Computing ( IF 4.7 ) Pub Date : 2021-06-11 , DOI: 10.1016/j.imavis.2021.104241
Hongyang Gu , Guangyuan Fu , Xu Wang , Jun Zhu

Person re-identification (ReID) is a hot topic in computer vision. The data in the ReID is often collected from the cameras with different views and is affected by other environmental factors, which poses a significant challenge to ReID. The omni-scales proposed by OSNet can extract discriminative feature representations, which shows that omni-scales are adequate for the task of the ReID. However, the OSNet is mainly based on a manually designed network architecture. In the OSnet, each block uses the same architecture and has only four scale feature representations. Inspired by neural network architecture search (NAS), we propose a method of auto-scale representations for ReID. Specifically, we first design the auto-scale block, mainly composed of the Lite 3 × 3 operations and the RCB 1 × 1 operations. The connection status among the Lite 3 × 3 operations is just our search space. Then we give our entire macro network architecture, the auto-scale network, which is mainly composed of 6 auto-scale blocks. Unlike other NAS-related work, each block in our search space does not need to share the same architecture but can maintain a different architecture. In the search process, we propose the entropy regularization, the validity regularization and the consistent regularization to alleviate the discretized gap, no valid path, and meaningless edges, respectively. Finally, we verify the effectiveness of the model we searched on four commonly used datasets. Our model can maintain the same 2.2 M parameters as OSNet but can achieve the performance of SOTA. The mAP on the Market1501 dataset can reach 88.7%.



中文翻译:

学习用于人员重新识别的自动缩放表示

行人重识别 (ReID) 是计算机视觉领域的热门话题。ReID 中的数据往往是从不同视角的摄像头采集而来,并受到其他环境因素的影响,这对 ReID 提出了重大挑战。OSNet 提出的omni-scales 可以提取有区别的特征表示,这表明omni-scales 足以完成ReID 的任务。然而,OSNet 主要基于手动设计的网络架构。在 OSnet 中,每个块都使用相同的架构,并且只有四个尺度特征表示。受神经网络架构搜索 (NAS) 的启发,我们提出了一种 ReID 的自动缩放表示方法。具体来说,我们首先设计自动缩放块,主要由 Lite 3 × 3 运算和 RCB 1 × 1 运算组成。Lite 3 × 3 操作之间的连接状态就是我们的搜索空间。然后我们给出我们的整个宏网络架构,即自动缩放网络,主要由 6 个自动缩放块组成。与其他与 NAS 相关的工作不同,我们搜索空间中的每个块不需要共享相同的架构,但可以维护不同的架构。在搜索过程中,我们分别提出了熵正则化、有效性正则化和一致正则化来缓解离散化差距、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。然后我们给出我们的整个宏网络架构,即自动缩放网络,主要由 6 个自动缩放块组成。与其他与 NAS 相关的工作不同,我们搜索空间中的每个块不需要共享相同的架构,但可以维护不同的架构。在搜索过程中,我们分别提出了熵正则化、有效性正则化和一致正则化来缓解离散化差距、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。然后我们给出我们的整个宏网络架构,即自动缩放网络,主要由 6 个自动缩放块组成。与其他与 NAS 相关的工作不同,我们搜索空间中的每个块不需要共享相同的架构,但可以维护不同的架构。在搜索过程中,我们分别提出了熵正则化、有效性正则化和一致正则化来缓解离散化差距、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。与其他与 NAS 相关的工作不同,我们搜索空间中的每个块不需要共享相同的架构,但可以维护不同的架构。在搜索过程中,我们分别提出了熵正则化、有效性正则化和一致正则化来缓解离散化差距、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。与其他与 NAS 相关的工作不同,我们搜索空间中的每个块不需要共享相同的架构,但可以维护不同的架构。在搜索过程中,我们分别提出了熵正则化、有效性正则化和一致正则化来缓解离散化差距、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。有效性正则化和一致正则化分别用于缓解离散化间隙、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。有效性正则化和一致正则化分别用于缓解离散化间隙、无有效路径和无意义边缘。最后,我们验证了我们在四个常用数据集上搜索的模型的有效性。我们的模型可以保持与 OSNet 相同的 2.2 M 参数,但可以达到 SOTA 的性能。Market1501 数据集上的 mAP 可以达到 88.7%。

更新日期:2021-06-11
down
wechat
bug