当前位置: X-MOL 学术ISPRS J. Photogramm. Remote Sens. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Large-scale point cloud contour extraction via 3D guided multi-conditional generative adversarial network
ISPRS Journal of Photogrammetry and Remote Sensing ( IF 12.7 ) Pub Date : 2020-04-25 , DOI: 10.1016/j.isprsjprs.2020.04.003
Weini Zhang , Linwei Chen , Zhangyue Xiong , Yu Zang , Jonathan Li , Lei Zhao

As one of the most important features for human perception, contours are widely used in many graphics and mapping applications. However, for large outdoor scale point clouds, contour extraction is considerably challenging due to the huge, unstructured and irregular point space, thus leading to massive failure for existing approaches. In this paper, to generate contours consistent with human perception for outdoor scenes, we propose, for the first time, 3D guided multi-conditional GAN (3D-GMcGAN), a deep neural network based contour extraction network for large scale point clouds. Specifically, two ideas are proposed to enable the network to learn the distributions of labeled samples. First, a parametric space based framework is proposed via a novel similarity measurement of two parametric models. Such a framework significantly compresses the huge point data space, thus making it much easier for the network to “remember” target distribution. Second, to prevent network loss in the huge solution space, a guided learning framework is designed to assist finding the target contour distribution via an initial guidance. To evaluate the effectiveness of the pro-posed network, we open-sourced the first, to our knowledge, dataset for large scale point cloud with contour annotation information. Experimental results demonstrate that 3D-GMcGAN efficiently generates contours for the data with more than ten million points (about several minutes), while avoiding ad hoc stages or parameters. Also, the proposed framework produces minimal outliers and pseudo-contours, as suggested by comparisons with the state-of-the-art approaches.



中文翻译:

通过3D制导多条件生成对抗网络进行大规模点云轮廓提取

轮廓作为人类感知的最重要特征之一,已广泛用于许多图形和制图应用程序中。但是,对于大型室外尺度的点云,轮廓提取由于其巨大的,非结构化的和不规则的点空间而相当具有挑战性,因此导致现有方法的大量失败。在本文中,为了生成与人类对于室外场景的感知一致的轮廓,我们首次提出了3D引导多条件GAN(3D-GMcGAN),这是一种基于深度神经网络的大规模点云轮廓提取网络。具体而言,提出了两种想法以使网络能够学习标记样本的分布。首先,通过对两个参数模型进行新颖的相似性度量,提出了基于参数空间的框架。这样的框架极大地压缩了巨大的点数据空间,从而使网络更容易“记住”目标分布。其次,为了防止在巨大的解决方案空间中造成网络丢失,设计了一种指导式学习框架,以帮助通过初始指导找到目标轮廓分布。为了评估拟议网络的有效性,我们根据知识公开了第一个带有轮廓标注信息的大规模点云数据集。实验结果表明,3D-GMcGAN可以有效地生成具有超过一千万个点(大约几分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。从而使网络更容易“记住”目标分布。其次,为了防止在巨大的解决方案空间中造成网络丢失,设计了一种指导式学习框架,以帮助通过初始指导找到目标轮廓分布。为了评估提议的网络的有效性,我们根据知识公开了第一个带有轮廓标注信息的大规模点云数据集。实验结果表明,3D-GMcGAN可以有效地生成具有超过一千万个点(大约几分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。从而使网络更容易“记住”目标分布。其次,为了防止在巨大的解决方案空间中造成网络丢失,设计了一种指导式学习框架,以帮助通过初始指导找到目标轮廓分布。为了评估拟议网络的有效性,我们根据知识公开了第一个带有轮廓标注信息的大规模点云数据集。实验结果表明,3D-GMcGAN有效地生成了具有一千万个点(约数分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。为了防止在巨大的解决方案空间中造成网络丢失,设计了一种指导式学习框架,以通过初始指导来帮助找到目标轮廓分布。为了评估提议的网络的有效性,我们根据知识公开了第一个带有轮廓注释信息的大规模点云数据集。实验结果表明,3D-GMcGAN可以有效地生成具有超过一千万个点(大约几分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。为了防止在巨大的解决方案空间中造成网络丢失,设计了一种指导式学习框架,以通过初始指导来帮助找到目标轮廓分布。为了评估提议的网络的有效性,我们根据知识公开了第一个带有轮廓注释信息的大规模点云数据集。实验结果表明,3D-GMcGAN有效地生成了具有一千万个点(约数分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。为了评估拟议网络的有效性,我们根据知识公开了第一个带有轮廓标注信息的大规模点云数据集。实验结果表明,3D-GMcGAN可以有效地生成具有超过一千万个点(大约几分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。为了评估提议的网络的有效性,我们根据知识公开了第一个带有轮廓注释信息的大规模点云数据集。实验结果表明,3D-GMcGAN可以有效地生成具有超过一千万个点(大约几分钟)的数据轮廓,同时避免了临时阶段或参数。而且,通过与最新方法的比较表明,所提出的框架产生的异常值和伪轮廓最小。

更新日期:2020-04-25
down
wechat
bug