当前位置: X-MOL 学术arXiv.cs.LG › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
SCE: Scalable Network Embedding from Sparsest Cut
arXiv - CS - Machine Learning Pub Date : 2020-06-30 , DOI: arxiv-2006.16499
Shengzhong Zhang, Zengfeng Huang, Haicang Zhou and Ziang Zhou

Large-scale network embedding is to learn a latent representation for each node in an unsupervised manner, which captures inherent properties and structural information of the underlying graph. In this field, many popular approaches are influenced by the skip-gram model from natural language processing. Most of them use a contrastive objective to train an encoder which forces the embeddings of similar pairs to be close and embeddings of negative samples to be far. A key of success to such contrastive learning methods is how to draw positive and negative samples. While negative samples that are generated by straightforward random sampling are often satisfying, methods for drawing positive examples remains a hot topic. In this paper, we propose SCE for unsupervised network embedding only using negative samples for training. Our method is based on a new contrastive objective inspired by the well-known sparsest cut problem. To solve the underlying optimization problem, we introduce a Laplacian smoothing trick, which uses graph convolutional operators as low-pass filters for smoothing node representations. The resulting model consists of a GCN-type structure as the encoder and a simple loss function. Notably, our model does not use positive samples but only negative samples for training, which not only makes the implementation and tuning much easier, but also reduces the training time significantly. Finally, extensive experimental studies on real world data sets are conducted. The results clearly demonstrate the advantages of our new model in both accuracy and scalability compared to strong baselines such as GraphSAGE, G2G and DGI.

中文翻译:

SCE:基于稀疏切割的可扩展网络嵌入

大规模网络嵌入是以无监督的方式学习每个节点的潜在表示,它捕获底层图的固有属性和结构信息。在这个领域,许多流行的方法都受到自然语言处理中的 skip-gram 模型的影响。他们中的大多数使用对比目标来训练编码器,该编码器迫使相似对的嵌入接近,负样本的嵌入远离。这种对比学习方法成功的关键是如何绘制正负样本。虽然通过直接随机抽样生成的负样本通常令人满意,但绘制正样本的方法仍然是一个热门话题。在本文中,我们提出了仅使用负样本进行训练的无监督网络嵌入的 SCE。我们的方法基于一个新的对比目标,其灵感来自著名的最稀疏切割问题。为了解决底层优化问题,我们引入了拉普拉斯平滑技巧,它使用图卷积运算符作为低通滤波器来平滑节点表示。生成的模型由作为编码器的 GCN 型结构和简单的损失函数组成。值得注意的是,我们的模型不使用正样本而只使用负样本进行训练,这不仅使实现和调优更加容易,而且显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。为了解决底层优化问题,我们引入了拉普拉斯平滑技巧,它使用图卷积运算符作为低通滤波器来平滑节点表示。生成的模型由作为编码器的 GCN 型结构和简单的损失函数组成。值得注意的是,我们的模型不使用正样本而只使用负样本进行训练,这不仅使实现和调优更加容易,而且显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。为了解决底层优化问题,我们引入了拉普拉斯平滑技巧,它使用图卷积运算符作为低通滤波器来平滑节点表示。生成的模型由作为编码器的 GCN 型结构和简单的损失函数组成。值得注意的是,我们的模型不使用正样本而只使用负样本进行训练,这不仅使实现和调优更加容易,而且显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。它使用图卷积算子作为低通滤波器来平滑节点表示。生成的模型由作为编码器的 GCN 型结构和简单的损失函数组成。值得注意的是,我们的模型不使用正样本而只使用负样本进行训练,这不仅使实现和调优更加容易,而且显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。它使用图卷积算子作为低通滤波器来平滑节点表示。生成的模型由作为编码器的 GCN 型结构和简单的损失函数组成。值得注意的是,我们的模型不使用正样本而只使用负样本进行训练,这不仅使实现和调优更加容易,而且显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。这不仅使实施和调优变得更加容易,而且还显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。这不仅使实施和调优变得更加容易,而且还显着减少了训练时间。最后,对真实世界的数据集进行了广泛的实验研究。与 GraphSAGE、G2G 和 DGI 等强基线相比,结果清楚地证明了我们的新模型在准确性和可扩展性方面的优势。
更新日期:2020-07-20
down
wechat
bug