当前位置: X-MOL 学术arXiv.cs.DS › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Regular Partitions and Their Use in Structural Pattern Recognition
arXiv - CS - Data Structures and Algorithms Pub Date : 2019-09-16 , DOI: arxiv-1909.07420
Marco Fiorucci

Recent years are characterized by an unprecedented quantity of available network data which are produced at an astonishing rate by an heterogeneous variety of interconnected sensors and devices. This high-throughput generation calls for the development of new effective methods to store, retrieve, understand and process massive network data. In this thesis, we tackle this challenge by introducing a framework to summarize large graphs based on Szemer\'edi's Regularity Remma (RL), which roughly states that any sufficiently large graph can almost entirely be partitioned into a bounded number of random-like bipartite graphs. The partition resulting from the RL gives rise to a summary, which inherits many of the essential structural properties of the original graph. We first extend an heuristic version of the RL to improve its efficiency and its robustness. We use the proposed algorithm to address graph-based clustering and image segmentation tasks. In the second part of the thesis, we introduce a new heuristic algorithm which is characterized by an improvement of the summary quality both in terms of reconstruction error and of noise filtering. We use the proposed heuristic to address the graph search problem defined under a similarity measure. Finally, we study the linkage among the regularity lemma, the stochastic block model and the minimum description length. This study provide us a principled way to develop a graph decomposition algorithm based on stochastic block model which is fitted using likelihood maximization.

中文翻译:

规则分区及其在结构模式识别中的应用

近年来的特点是空前数量的可用网络数据由各种异构的互连传感器和设备以惊人的速度产生。这一代高吞吐量要求开发新的有效方法来存储、检索、理解和处理海量网络数据。在本论文中,我们通过引入一个框架来应对这一挑战,该框架基于 Szemer\'edi 的正则性 Remma (RL) 来总结大图,该框架粗略地指出,任何足够大的图几乎都可以被划分为有限数量的类随机二分图图表。RL 产生的分区产生了一个摘要,它继承了原始图的许多基本结构属性。我们首先扩展了 RL 的启发式版本,以提高其效率和鲁棒性。我们使用所提出的算法来解决基于图的聚类和图像分割任务。在论文的第二部分,我们介绍了一种新的启发式算法,其特点是在重构误差和噪声过滤方面都提高了摘要质量。我们使用所提出的启发式方法来解决在相似性度量下定义的图搜索问题。最后,我们研究了正则性引理、随机块模型和最小描述长度之间的联系。本研究为我们提供了一种基于使用似然最大化拟合的随机块模型开发图分解算法的原则方法。我们使用所提出的算法来解决基于图的聚类和图像分割任务。在论文的第二部分,我们介绍了一种新的启发式算法,其特点是在重构误差和噪声过滤方面都提高了摘要质量。我们使用所提出的启发式方法来解决在相似性度量下定义的图搜索问题。最后,我们研究了正则性引理、随机块模型和最小描述长度之间的联系。本研究为我们提供了一种基于使用似然最大化拟合的随机块模型开发图分解算法的原则方法。我们使用所提出的算法来解决基于图的聚类和图像分割任务。在论文的第二部分,我们介绍了一种新的启发式算法,其特点是在重构误差和噪声过滤方面都提高了摘要质量。我们使用所提出的启发式方法来解决在相似性度量下定义的图搜索问题。最后,我们研究了正则性引理、随机块模型和最小描述长度之间的联系。本研究为我们提供了一种基于使用似然最大化拟合的随机块模型开发图分解算法的原则方法。我们引入了一种新的启发式算法,其特点是在重建误差和噪声过滤方面都提高了摘要质量。我们使用所提出的启发式方法来解决在相似性度量下定义的图搜索问题。最后,我们研究了正则性引理、随机块模型和最小描述长度之间的联系。本研究为我们提供了一种基于使用似然最大化拟合的随机块模型开发图分解算法的原则方法。我们引入了一种新的启发式算法,其特点是在重建误差和噪声过滤方面都提高了摘要质量。我们使用所提出的启发式方法来解决在相似性度量下定义的图搜索问题。最后,我们研究了正则性引理、随机块模型和最小描述长度之间的联系。本研究为我们提供了一种基于使用似然最大化拟合的随机块模型开发图分解算法的原则方法。
更新日期:2020-03-27
down
wechat
bug