当前位置: X-MOL 学术Int. J. Comput. Vis. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Anchor-Based Self-Ensembling for Semi-Supervised Deep Pairwise Hashing
International Journal of Computer Vision ( IF 11.6 ) Pub Date : 2020-02-18 , DOI: 10.1007/s11263-020-01299-x
Xiaoshuang Shi , Zhenhua Guo , Fuyong Xing , Yun Liang , Lin Yang

Deep hashing has attracted considerable attention to tackle large-scale retrieval tasks, because of automatic and powerful feature extraction of convolutional neural networks and the gain of hashing in computation and storage costs. Most current supervised deep hashing methods only utilize the semantic information of labeled data without exploiting unlabeled data. However, data annotation is expensive and thus only scarce labeled data are available, which are difficult to represent the true distribution of all data. In this paper, we propose a novel semi-supervised deep pairwise hashing method to leverage both labeled and unlabeled data to learn hash functions. Our method utilizes the transduction of anchors to preserve the pairwise similarity relationship among both labeled and unlabeled samples. Additionally, to explore the semantic similarity information hidden in unlabeled data, it adopts self-ensembling to create strong ensemble targets for latent binary vectors of training samples and form a consensus predicting similarity relationship to multiple anchors. Unlike previous pairwise based hashing methods without maintaining the relevance among similar neighbors, we further explain and exhibit the capability of our method on preserving their relevance through calculating their similarities to anchors. Finally, extensive experiments on benchmark databases demonstrate the superior performance of the proposed method over recent state-of-the-art hashing methods on multiple retrieval tasks. The source codes of the proposed method are available on: https://github.com/xsshi2015/Semi-supervised-Deep-Pairwise-Hashing.

中文翻译:

用于半监督深度成对散列的基于锚的自集成

由于卷积神经网络的自动和强大的特征提取以及散列在计算和存储成本方面的收益,深度散列在处理大规模检索任务方面引起了相当大的关注。目前大多数有监督的深度散列方法只利用标记数据的语义信息,而没有利用未标记数据。然而,数据标注成本高昂,因此只有稀缺的标记数据可用,难以表示所有数据的真实分布。在本文中,我们提出了一种新颖的半监督深度成对散列方法,以利用标记和未标记的数据来学习散列函数。我们的方法利用锚点的转导来保留标记和未标记样本之间的成对相似关系。此外,为了探索隐藏在未标记数据中的语义相似性信息,它采用自集成为训练样本的潜在二元向量创建强集成目标,并与多个锚点形成一致的预测相似关系。与之前不保持相似邻居之间相关性的基于成对的散列方法不同,我们进一步解释和展示了我们的方法通过计算它们与锚点的相似性来保持它们的相关性的能力。最后,在基准数据库上的大量实验证明了所提出的方法在多个检索任务上的性能优于最近最先进的散列方法。所提出方法的源代码可从以下网址获得:https://github.com/xsshi2015/Semi-supervised-Deep-Pairwise-Hashing。它采用自集成为训练样本的潜在二元向量创建强大的集成目标,并与多个锚点形成一致的预测相似关系。与之前不保持相似邻居之间相关性的基于成对的散列方法不同,我们进一步解释和展示了我们的方法通过计算它们与锚点的相似性来保持它们的相关性的能力。最后,在基准数据库上的大量实验证明了所提出的方法在多个检索任务上的性能优于最近最先进的散列方法。所提出方法的源代码可从以下网址获得:https://github.com/xsshi2015/Semi-supervised-Deep-Pairwise-Hashing。它采用自集成为训练样本的潜在二元向量创建强大的集成目标,并与多个锚点形成一致的预测相似关系。与之前不保持相似邻居之间相关性的基于成对的散列方法不同,我们进一步解释和展示了我们的方法通过计算它们与锚点的相似性来保持其相关性的能力。最后,在基准数据库上的大量实验证明了所提出的方法在多个检索任务上的性能优于最近最先进的散列方法。所提出方法的源代码可从以下网址获得:https://github.com/xsshi2015/Semi-supervised-Deep-Pairwise-Hashing。
更新日期:2020-02-18
down
wechat
bug