当前位置: X-MOL 学术Int. J. Comput. Vis. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A General Framework for Deep Supervised Discrete Hashing
International Journal of Computer Vision ( IF 11.6 ) Pub Date : 2020-04-18 , DOI: 10.1007/s11263-020-01327-w
Qi Li , Zhenan Sun , Ran He , Tieniu Tan

With the rapid growth of image and video data on the web, hashing has been extensively studied for image or video search in recent years. Benefiting from recent advances in deep learning, deep hashing methods have shown superior performance over the traditional hashing methods. However, there are some limitations of previous deep hashing methods (e.g., the semantic information is not fully exploited). In this paper, we develop a general deep supervised discrete hashing framework based on the assumption that the learned binary codes should be ideal for classification. Both the similarity information and the classification information are used to learn the hash codes within one stream framework. We constrain the outputs of the last layer to be binary codes directly, which is rarely investigated in deep hashing algorithms. Besides, both the pairwise similarity information and the triplet ranking information are exploited in this paper. In addition, two different loss functions are presented: l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \usepackage{upgreek} \setlength{\oddsidemargin}{-69pt} \begin{document}$${l_2}$$\end{document} loss and hinge loss, which are carefully designed for the classification term under the one stream framework. Because of the discrete nature of hash codes, an alternating minimization method is used to optimize the objective function. Experimental results have shown that our approach outperforms current state-of-the-art methods on benchmark datasets.

中文翻译:

深度监督离散散列的通用框架

随着网络上图像和视频数据的快速增长,近年来对图像或视频搜索进行了广泛的研究。受益于深度学习的最新进展,深度散列方法显示出优于传统散列方法的性能。然而,以前的深度散列方法存在一些局限性(例如,语义信息没有得到充分利用)。在本文中,我们基于所学习的二进制代码应该是分类的理想选择,开发了一个通用的深度监督离散散列框架。相似性信息和分类信息都用于学习一个流框架内的哈希码。我们将最后一层的输出直接限制为二进制代码,这在深度哈希算法中很少被研究。除了,本文利用了成对相似性信息和三重排序信息。此外,还提供了两种不同的损失函数: l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \ usepackage{upgreek} \setlength{\oddsidemargin}{-69pt} \begin{document}$${l_2}$$\end{document} 损失和铰链损失,它们是为单一流框架下的分类术语精心设计的。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。此外,还提供了两种不同的损失函数: l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \ usepackage{upgreek} \setlength{\oddsidemargin}{-69pt} \begin{document}$${l_2}$$\end{document} 损失和铰链损失,它们是为单一流框架下的分类术语精心设计的。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。此外,还提供了两种不同的损失函数: l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \ usepackage{upgreek} \setlength{\oddsidemargin}{-69pt} \begin{document}$${l_2}$$\end{document} 损失和铰链损失,它们是为单一流框架下的分类术语精心设计的。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \usepackage{upgreek} \setlength{\oddsidemargin} {-69pt} \begin{document}$${l_2}$$\end{document} 损失和铰链损失,它们是为单流框架下的分类术语精心设计的。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。l2\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \usepackage{upgreek} \setlength{\oddsidemargin} {-69pt} \begin{document}$${l_2}$$\end{document} 损失和铰链损失,它们是为单流框架下的分类术语精心设计的。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。由于哈希码的离散性,使用交替最小化方法来优化目标函数。实验结果表明,我们的方法在基准数据集上优于当前最先进的方法。
更新日期:2020-04-18
down
wechat
bug