当前位置: X-MOL 学术Int. J. Adv. Robot. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
DUDMap: 3D RGB-D mapping for dense, unstructured, and dynamic environment
International Journal of Advanced Robotic Systems ( IF 2.1 ) Pub Date : 2021-06-10 , DOI: 10.1177/17298814211016178
Özgür Hastürk 1 , Aydan M Erkmen 2
Affiliation  

Simultaneous localization and mapping (SLAM) problem has been extensively studied by researchers in the field of robotics, however, conventional approaches in mapping assume a static environment. The static assumption is valid only in a small region, and it limits the application of visual SLAM in dynamic environments. The recently proposed state-of-the-art SLAM solutions for dynamic environments use different semantic segmentation methods such as mask R-CNN and SegNet; however, these frameworks are based on a sparse mapping framework (ORBSLAM). In addition, segmentation process increases the computational power, which makes these SLAM algorithms unsuitable for real-time mapping. Therefore, there is no effective dense RGB-D SLAM method for real-world unstructured and dynamic environments. In this study, we propose a novel real-time dense SLAM method for dynamic environments, where 3D reconstruction error is manipulated for identification of static and dynamic classes having generalized Gaussian distribution. Our proposed approach requires neither explicit object tracking nor object classifier, which makes it robust to any type of moving object and suitable for real-time mapping. Our method eliminates the repeated views and uses consistent data that enhance the performance of volumetric fusion. For completeness, we compare our proposed method using different types of high dynamic dataset, which are publicly available, to demonstrate the versatility and robustness of our approach. Experiments show that its tracking performance is better than other dense and dynamic SLAM approaches.



中文翻译:

DUDMap:用于密集、非结构化和动态环境的 3D RGB-D 映射

机器人领域的研究人员已经广泛研究了同时定位和建图 (SLAM) 问题,但是,传统的建图方法假设是静态环境。静态假设只在小区域内有效,限制了视觉SLAM在动态环境中的应用。最近提出的最先进的动态环境 SLAM 解决方案使用不同的语义分割方法,例如 mask R-CNN 和 SegNet;但是,这些框架基于稀疏映射框架 (ORBSLAM)。此外,分割过程增加了计算能力,这使得这些 SLAM 算法不适合实时映射。因此,对于现实世界的非结构化和动态环境,没有有效的密集 RGB-D SLAM 方法。在这项研究中,我们为动态环境提出了一种新颖的实时密集 SLAM 方法,其中操纵 3D 重建误差以识别具有广义高斯分布的静态和动态类。我们提出的方法既不需要明确的对象跟踪也不需要对象分类器,这使得它对任何类型的移动对象都具有鲁棒性并且适合实时映射。我们的方法消除了重复视图并使用一致的数据来提高体积融合的性能。为了完整性,我们使用不同类型的公开可用的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。其中操纵 3D 重建误差以识别具有广义高斯分布的静态和动态类。我们提出的方法既不需要明确的对象跟踪也不需要对象分类器,这使得它对任何类型的移动对象都具有鲁棒性并且适合实时映射。我们的方法消除了重复视图并使用一致的数据来提高体积融合的性能。为了完整性,我们使用不同类型的公开可用的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。其中操纵 3D 重建误差以识别具有广义高斯分布的静态和动态类。我们提出的方法既不需要明确的对象跟踪也不需要对象分类器,这使得它对任何类型的移动对象都具有鲁棒性并且适合实时映射。我们的方法消除了重复视图并使用一致的数据来提高体积融合的性能。为了完整性,我们使用不同类型的公开可用的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。我们提出的方法既不需要明确的对象跟踪也不需要对象分类器,这使得它对任何类型的移动对象都具有鲁棒性并且适合实时映射。我们的方法消除了重复视图并使用一致的数据来提高体积融合的性能。为了完整性,我们使用不同类型的公开可用的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。我们提出的方法既不需要明确的对象跟踪也不需要对象分类器,这使得它对任何类型的移动对象都具有鲁棒性并且适合实时映射。我们的方法消除了重复视图并使用一致的数据来提高体积融合的性能。为了完整性,我们使用不同类型的公开可用的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。我们使用公开可用的不同类型的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。我们使用公开可用的不同类型的高动态数据集来比较我们提出的方法,以证明我们方法的多功能性和稳健性。实验表明,其跟踪性能优于其他密集动态 SLAM 方法。

更新日期:2021-06-10
down
wechat
bug