当前位置: X-MOL 学术Knowl. Based Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Local2Global: Unsupervised multi-view deep graph representation learning with Nearest Neighbor Constraint
Knowledge-Based Systems ( IF 7.2 ) Pub Date : 2021-08-25 , DOI: 10.1016/j.knosys.2021.107439
Xiaobo Zhang 1, 2, 3 , Yan Yang 1, 2, 3 , Donghai Zhai 1, 2, 3 , Tianrui Li 1, 2, 3 , Jielei Chu 1, 2 , Hao Wang 4
Affiliation  

Multi-view feature fusion is a vital phase for multi-view representation learning. Recently, most Graph Auto-Encoders (GAEs) and their variants focus on multi-view learning. However, most of them ignore deep representation fusion of features of each multi-view. Furthermore, there are scarcely unsupervised constraints guiding to enhance the graph representation capability in training process. In this paper, we propose a novel unsupervised Multi-view Deep Graph Representation Learning (MDGRL) framework on multi-view data which is based on the Graph Auto-Encoders (GAEs) for local feature leaning, a feature fusion module for producing global representation and a valid variant of Variational Graph Auto-Encoder (VGAE) for global deep graph representation learning. To fuse Nearest Neighbor Constraint (NNC) between the maximal degree nodes which represents the most close joining node and their adjacent nodes into VGAE, we propose a new Nearest Neighbor Constraint Variational Graph Auto-Encoder (NNC-VGAE) to enhance the global deep graph representation capability for multi-view data. In the training process of NNC-VGAE, NNC makes the adjacent nodes gradually close to the maximal degree node. Hence, the proposed MDGRL has excellent deep graph representation capability for multi-view data. Experiments on eight non-medical benchmark multi-view data sets and four medical data sets confirm the effectiveness of our MDGRL compared with other state-of-the-art methods for unsupervised clustering.



中文翻译:

Local2Global:具有最近邻约束的无监督多视图深度图表示学习

多视图特征融合是多视图表征学习的关键阶段。最近,大多数图自动编码器 (GAE) 及其变体都专注于多视图学习。然而,他们中的大多数都忽略了每个多视图特征的深度表示融合。此外,几乎没有无监督的约束指导来增强训练过程中的图表示能力。在本文中,我们针对多视图数据提出了一种新的无监督多视图深度图表示学习 (MDGRL) 框架,该框架基于用于局部特征学习的图自动编码器 (GAE),一种用于生成全局表示的特征融合模块以及用于全局深度图表示学习的变分图自动编码器(VGAE)的有效变体。为了将代表最接近加入节点的最大度节点与其相邻节点之间的最近邻约束(NNC)融合到 VGAE 中,我们提出了一种新的最近邻约束变分图自动编码器(NNC-VGAE)来增强全局深度图多视图数据的表示能力。在NNC-VGAE的训练过程中,NNC使相邻节点逐渐靠近最大度节点。因此,提出的 MDGRL 对多视图数据具有出色的深度图表示能力。与其他最先进的无监督聚类方法相比,在八个非医学基准多视图数据集和四个医学数据集上的实验证实了我们的 MDGRL 的有效性。我们提出了一种新的最近邻约束变分图自动编码器(NNC-VGAE)来增强多视图数据的全局深度图表示能力。在NNC-VGAE的训练过程中,NNC使相邻节点逐渐靠近最大度节点。因此,提出的 MDGRL 对多视图数据具有出色的深度图表示能力。与其他最先进的无监督聚类方法相比,在八个非医学基准多视图数据集和四个医学数据集上的实验证实了我们的 MDGRL 的有效性。我们提出了一种新的最近邻约束变分图自动编码器(NNC-VGAE)来增强多视图数据的全局深度图表示能力。在NNC-VGAE的训练过程中,NNC使相邻节点逐渐靠近最大度节点。因此,提出的 MDGRL 对多视图数据具有出色的深度图表示能力。与其他最先进的无监督聚类方法相比,对八个非医学基准多视图数据集和四个医学数据集的实验证实了我们的 MDGRL 的有效性。提出的 MDGRL 对多视图数据具有出色的深度图表示能力。与其他最先进的无监督聚类方法相比,在八个非医学基准多视图数据集和四个医学数据集上的实验证实了我们的 MDGRL 的有效性。提出的 MDGRL 对多视图数据具有出色的深度图表示能力。与其他最先进的无监督聚类方法相比,在八个非医学基准多视图数据集和四个医学数据集上的实验证实了我们的 MDGRL 的有效性。

更新日期:2021-09-03
down
wechat
bug