当前位置: X-MOL 学术arXiv.cs.LG › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Weisfeiler和Lehman进入拓扑:消息传递简单网络
arXiv - CS - Machine Learning Pub Date : 2021-03-04 , DOI: arxiv-2103.03212
Cristian Bodnar, Fabrizio Frasca, Yu Guang Wang, Nina Otter, Guido Montúfar, Pietro Liò, Michael Bronstein

图机器学习的成对交互范例主要控制着关系系统的建模。但是,仅凭图不能捕获许多复杂系统中存在的多级交互,并且这种方案的表达能力被证明是有限的。为了克服这些限制,我们提出了消息传递简单网络(MPSN),这是一类对简单复合体(SC)执行消息传递的模型-拓扑对象将图形推广到更高的维度。为了从理论上分析我们模型的表现力,我们引入了一个简单的Weisfeiler-Lehman(SWL)着色过程来区分非同构SC。我们将SWL的功能与区分非同构图的问题联系起来,并显示SWL和MPSN严格比WL测试更强大,并且不比3-WL测试更强大。我们通过将我们的模型与具有ReLU激活的传统图神经网络进行比较,从而深化了分析,它们可以代表函数的线性区域数量。通过显示MPSN可以区分GNN失败的具有挑战性的强规则图,并通过配备方向等变层,与MPN基线相比,它们可以提高定向SC的分类准确性,从而从经验上支持我们的理论主张。此外,我们实现了一个用于在简单复合体上传递消息的库,我们计划在适当的时候发布该复合体。我们通过将我们的模型与具有ReLU激活的传统图神经网络进行比较,从而深化了分析,它们可以代表函数的线性区域数量。通过显示MPSN可以区分GNN失败的具有挑战性的强规则图,并通过配备方向等变层,与MPN基线相比,它们可以提高定向SC的分类准确性,从而从经验上支持我们的理论主张。此外,我们实现了一个用于在简单复合体上传递消息的库,我们计划在适当的时候发布该复合体。我们通过将我们的模型与具有ReLU激活的传统图神经网络进行比较,从而深化了分析,它们可以代表函数的线性区域数量。通过显示MPSN可以区分GNN失败的具有挑战性的强规则图,并通过配备方向等变层,与MPN基线相比,它们可以提高定向SC的分类准确性,从而从经验上支持我们的理论主张。此外,我们实现了一个用于在简单复合体上传递消息的库,我们计划在适当的时候发布该复合体。通过显示MPSN可以区分GNN失败的具有挑战性的强规则图,并通过配备方向等变层,与MPN基线相比,它们可以提高定向SC的分类准确性,从而从经验上支持我们的理论主张。此外,我们实现了一个用于在简单复合体上传递消息的库,我们计划在适当的时候发布该复合体。通过显示MPSN可以区分GNN失败的具有挑战性的强规则图,并通过配备方向等变层,与MPN基线相比,它们可以提高定向SC的分类准确性,从而从经验上支持我们的理论主张。此外,我们实现了一个用于在简单复合体上传递消息的库,我们计划在适当的时候发布该复合体。



"点击查看英文标题和摘要"

更新日期:2021-03-05
down
wechat
bug