当前位置: X-MOL 学术ACM Trans. Multimed. Comput. Commun. Appl. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Multi-View Graph Matching for 3D Model Retrieval
ACM Transactions on Multimedia Computing, Communications, and Applications ( IF 5.1 ) Pub Date : 2020-07-06 , DOI: 10.1145/3387920
Yu-Ting Su 1 , Wen-Hui Li 1 , Wei-Zhi Nie 1 , An-An Liu 1
Affiliation  

3D model retrieval has been widely utilized in numerous domains, such as computer-aided design, digital entertainment, and virtual reality. Recently, many graph-based methods have been proposed to address this task by using multi-view information of 3D models. However, these methods are always constrained by many-to-many graph matching for the similarity measure between pairwise models. In this article, we propose a multi-view graph matching method (MVGM) for 3D model retrieval. The proposed method can decompose the complicated multi-view graph-based similarity measure into multiple single-view graph-based similarity measures and fusion. First, we present the method for single-view graph generation, and we further propose the novel method for the similarity measure in a single-view graph by leveraging both node-wise context and model-wise context. Then, we propose multi-view fusion with diffusion, which can collaboratively integrate multiple single-view similarities w.r.t. different viewpoints and adaptively learn their weights, to compute the multi-view similarity between pairwise models. In this way, the proposed method can avoid the difficulty in the definition and computation of the traditional high-order graph. Moreover, this method is unsupervised and does not require a large-scale 3D dataset for model learning. We conduct evaluations on four popular and challenging datasets. The extensive experiments demonstrate the superiority and effectiveness of the proposed method compared against the state of the art. In particular, this unsupervised method can achieve competitive performances against the most recent supervised and deep learning method.

中文翻译:

用于 3D 模型检索的多视图图匹配

3D模型检索已广泛应用于计算机辅助设计、数字娱乐和虚拟现实等众多领域。最近,已经提出了许多基于图的方法来通过使用 3D 模型的多视图信息来解决此任务。然而,这些方法总是受到成对模型之间相似性度量的多对多图匹配的限制。在本文中,我们提出了一种用于 3D 模型检索的多视图图匹配方法 (MVGM)。该方法可以将复杂的基于多视图图的相似度度量分解为多个基于单视图图的相似度度量并融合。首先,我们提出了单视图图生成的方法,并且我们通过利用节点上下文和模型上下文进一步提出了单视图图中相似性度量的新方法。然后,我们提出了带扩散的多视图融合,它可以协作整合不同视点的多个单视图相似性并自适应地学习它们的权重,以计算成对模型之间的多视图相似性。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。我们提出了带扩散的多视图融合,它可以协作地整合不同视点的多个单视图相似性并自适应地学习它们的权重,以计算成对模型之间的多视图相似性。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。我们提出了带扩散的多视图融合,它可以协作地整合不同视点的多个单视图相似性并自适应地学习它们的权重,以计算成对模型之间的多视图相似性。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。它可以协作整合不同视点的多个单视图相似性并自适应地学习它们的权重,以计算成对模型之间的多视图相似性。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。它可以协作整合不同视点的多个单视图相似性并自适应地学习它们的权重,以计算成对模型之间的多视图相似性。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。计算成对模型之间的多视图相似度。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。计算成对模型之间的多视图相似度。这样,所提出的方法就可以避免传统高阶图的定义和计算困难。此外,这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。这种方法是无监督的,不需要大规模的 3D 数据集进行模型学习。我们对四个流行且具有挑战性的数据集进行评估。广泛的实验证明了所提出的方法与现有技术相比的优越性和有效性。特别是,这种无监督方法可以实现与最新的监督和深度学习方法竞争的性能。
更新日期:2020-07-06
down
wechat
bug