当前位置: X-MOL 学术IEEE Trans. Neural Netw. Learn. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
DNB: A Joint Learning Framework for Deep Bayesian Nonparametric Clustering
IEEE Transactions on Neural Networks and Learning Systems ( IF 10.4 ) Pub Date : 2021-06-22 , DOI: 10.1109/tnnls.2021.3085891
Zeya Wang 1 , Yang Ni 2 , Baoyu Jing 3 , Deqing Wang 4 , Hao Zhang 1 , Eric Xing 1
Affiliation  

Clustering algorithms based on deep neural networks have been widely studied for image analysis. Most existing methods require partial knowledge of the true labels, namely, the number of clusters, which is usually not available in practice. In this article, we propose a Bayesian nonparametric framework, deep nonparametric Bayes (DNB), for jointly learning image clusters and deep representations in a doubly unsupervised manner. In doubly unsupervised learning, we are dealing with the problem of “unknown unknowns,” where we estimate not only the unknown image labels but also the unknown number of labels as well. The proposed algorithm alternates between generating a potentially unbounded number of clusters in the forward pass and learning the deep networks in the backward pass. With the help of the Dirichlet process mixtures, the proposed method is able to partition the latent representations space without specifying the number of clusters a priori. An important feature of this work is that all the estimation is realized with an end-to-end solution, which is very different from the methods that rely on post hoc analysis to select the number of clusters. Another key idea in this article is to provide a principled solution to the problem of “trivial solution” for deep clustering, which has not been much studied in the current literature. With extensive experiments on benchmark datasets, we show that our doubly unsupervised method achieves good clustering performance and outperforms many other unsupervised image clustering methods.

中文翻译:

DNB:深度贝叶斯非参数聚类的联合学习框架

基于深度神经网络的聚类算法已被广泛研究用于图像分析。大多数现有方法需要了解真实标签的部分知识,即聚类的数量,这在实践中通常是不可用的。在本文中,我们提出了一种贝叶斯非参数框架,即深度非参数贝叶斯 (DNB),用于以双重无监督方式联合学习图像簇和深度表示。在双重无监督学习中,我们正在处理“未知的未知数”问题,我们不仅要估计未知图像标签,还要估计未知数量的标签。所提出的算法在前向传递中生成潜在无限数量的簇和在反向传递中学习深度网络之间交替。在 Dirichlet 过程混合物的帮助下,所提出的方法能够在不指定先验聚类数量的情况下划分潜在表示空间。这项工作的一个重要特点是所有的估计都是用端到端的解决方案实现的,这与依赖事后分析来选择聚类数量的方法有很大不同。本文的另一个关键思想是为深度聚类的“平凡解决方案”问题提供原则性解决方案,这在当前文献中尚未得到太多研究。通过对基准数据集的广泛实验,我们表明我们的双重无监督方法实现了良好的聚类性能,并且优于许多其他无监督图像聚类方法。这项工作的一个重要特点是所有的估计都是用端到端的解决方案实现的,这与依赖事后分析来选择聚类数量的方法有很大不同。本文的另一个关键思想是为深度聚类的“平凡解决方案”问题提供原则性解决方案,这在当前文献中尚未得到太多研究。通过对基准数据集的广泛实验,我们表明我们的双重无监督方法实现了良好的聚类性能,并且优于许多其他无监督图像聚类方法。这项工作的一个重要特点是所有的估计都是用端到端的解决方案实现的,这与依赖事后分析来选择聚类数量的方法有很大不同。本文的另一个关键思想是为深度聚类的“平凡解决方案”问题提供原则性解决方案,这在当前文献中尚未得到太多研究。通过对基准数据集的广泛实验,我们表明我们的双重无监督方法实现了良好的聚类性能,并且优于许多其他无监督图像聚类方法。本文的另一个关键思想是为深度聚类的“平凡解决方案”问题提供原则性解决方案,这在当前文献中尚未得到太多研究。通过对基准数据集的广泛实验,我们表明我们的双重无监督方法实现了良好的聚类性能,并且优于许多其他无监督图像聚类方法。本文的另一个关键思想是为深度聚类的“平凡解决方案”问题提供原则性解决方案,这在当前文献中尚未得到太多研究。通过对基准数据集的大量实验,我们表明我们的双重无监督方法实现了良好的聚类性能,并且优于许多其他无监督图像聚类方法。
更新日期:2021-06-22
down
wechat
bug