当前位置:
X-MOL 学术
›
arXiv.cs.HC
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
GNNVis: A Visual Analytics Approach for Prediction Error Diagnosis of Graph Neural Networks
arXiv - CS - Human-Computer Interaction Pub Date : 2020-11-22 , DOI: arxiv-2011.11048 Zhihua Jin, Yong Wang, Qianwen Wang, Yao Ming, Tengfei Ma, Huamin Qu
arXiv - CS - Human-Computer Interaction Pub Date : 2020-11-22 , DOI: arxiv-2011.11048 Zhihua Jin, Yong Wang, Qianwen Wang, Yao Ming, Tengfei Ma, Huamin Qu
Graph Neural Networks (GNNs) aim to extend deep learning techniques to graph
data and have achieved significant progress in graph analysis tasks (e.g., node
classification) in recent years. However, similar to other deep neural networks
like Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs),
GNNs behave like a black box with their details hidden from model developers
and users. It is therefore difficult to diagnose possible errors of GNNs.
Despite many visual analytics studies being done on CNNs and RNNs, little
research has addressed the challenges for GNNs. This paper fills the research
gap with an interactive visual analysis tool, GNNVis, to assist model
developers and users in understanding and analyzing GNNs. Specifically,
Parallel Sets View and Projection View enable users to quickly identify and
validate error patterns in the set of wrong predictions; Graph View and Feature
Matrix View offer a detailed analysis of individual nodes to assist users in
forming hypotheses about the error patterns. Since GNNs jointly model the graph
structure and the node features, we reveal the relative influences of the two
types of information by comparing the predictions of three models: GNN,
Multi-Layer Perceptron (MLP), and GNN Without Using Features (GNNWUF). Two case
studies and interviews with domain experts demonstrate the effectiveness of
GNNVis in facilitating the understanding of GNN models and their errors.
中文翻译:
GNNVis:图形神经网络预测误差诊断的可视化分析方法
图形神经网络(GNN)旨在将深度学习技术扩展到图形数据,并且近年来在图形分析任务(例如,节点分类)方面取得了重大进展。但是,类似于卷积神经网络(CNN)和递归神经网络(RNN)等其他深度神经网络,GNN的行为就像黑匣子,其详细信息对模型开发人员和用户而言是隐藏的。因此,很难诊断出GNN的可能错误。尽管已对CNN和RNN进行了许多视觉分析研究,但很少有研究解决GNN的挑战。本文使用交互式视觉分析工具GNNVis填补了研究空白,以帮助模型开发人员和用户理解和分析GNN。特别,并行集视图和投影视图使用户能够快速识别和验证错误预测集中的错误模式;图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。
更新日期:2020-11-25
中文翻译:
GNNVis:图形神经网络预测误差诊断的可视化分析方法
图形神经网络(GNN)旨在将深度学习技术扩展到图形数据,并且近年来在图形分析任务(例如,节点分类)方面取得了重大进展。但是,类似于卷积神经网络(CNN)和递归神经网络(RNN)等其他深度神经网络,GNN的行为就像黑匣子,其详细信息对模型开发人员和用户而言是隐藏的。因此,很难诊断出GNN的可能错误。尽管已对CNN和RNN进行了许多视觉分析研究,但很少有研究解决GNN的挑战。本文使用交互式视觉分析工具GNNVis填补了研究空白,以帮助模型开发人员和用户理解和分析GNN。特别,并行集视图和投影视图使用户能够快速识别和验证错误预测集中的错误模式;图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。图形视图和特征矩阵视图提供了对各个节点的详细分析,以帮助用户形成有关错误模式的假设。由于GNN共同对图结构和节点特征进行建模,因此我们通过比较三种模型的预测来揭示两种信息的相对影响:GNN,多层感知器(MLP)和不使用特征的GNN(GNNWUF)。通过两个案例研究以及与领域专家的访谈,证明了GNNVis在促进对GNN模型及其错误的理解方面的有效性。