当前位置: X-MOL 学术arXiv.cs.RO › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Majorization Minimization Methods for Distributed Pose Graph Optimization
arXiv - CS - Robotics Pub Date : 2021-07-30 , DOI: arxiv-2108.00083
Taosha Fan, Todd Murphey

We consider the problem of distributed pose graph optimization (PGO) that has important applications in multi-robot simultaneous localization and mapping (SLAM). We propose the majorization minimization (MM) method for distributed PGO ($\mathsf{MM\!\!-\!\!PGO}$) that applies to a broad class of robust loss kernels. The $\mathsf{MM\!\!-\!\!PGO}$ method is guaranteed to converge to first-order critical points under mild conditions. Furthermore, noting that the $\mathsf{MM\!\!-\!\!PGO}$ method is reminiscent of proximal methods, we leverage Nesterov's method and adopt adaptive restarts to accelerate convergence. The resulting accelerated MM methods for distributed PGO -- both with a master node in the network ($\mathsf{AMM\!\!-\!\!PGO}^*$) and without ($\mathsf{AMM\!\!-\!\!PGO}^{\#}$) -- have faster convergence in contrast to the $\mathsf{MM\!\!-\!\!PGO}$ method without sacrificing theoretical guarantees. In particular, the $\mathsf{AMM\!\!-\!\!PGO}^{\#}$ method, which needs no master node and is fully decentralized, features a novel adaptive restart scheme and has a rate of convergence comparable to that of the $\mathsf{AMM\!\!-\!\!PGO}^*$ method using a master node to aggregate information from all the other nodes. The efficacy of this work is validated through extensive applications to 2D and 3D SLAM benchmark datasets and comprehensive comparisons against existing state-of-the-art methods, indicating that our MM methods converge faster and result in better solutions to distributed PGO.

中文翻译:

分布式姿态图优化的专业化最小化方法

我们考虑分布式姿态图优化 (PGO) 问题,该问题在多机器人同时定位和映射 (SLAM) 中具有重要应用。我们提出了分布式 PGO ($\mathsf{MM\!\!-\!\!PGO}$) 的主要化最小化 (MM) 方法,该方法适用于广泛的鲁棒损失内核。$\mathsf{MM\!\!-\!\!PGO}$ 方法保证在温和条件下收敛到一阶临界点。此外,注意到 $\mathsf{MM\!\!-\!\!PGO}$ 方法让人想起近端方法,我们利用 Nesterov 的方法并采用自适应重启来加速收敛。由此产生的分布式 PGO 加速 MM 方法——在网络中有一个主节点 ($\mathsf{AMM\!\!-\!\!PGO}^*$) 和没有 ($\mathsf{AMM\!\ !-\!\!PGO}^{\#}$) -- 与 $\mathsf{MM\!\! -\!\!PGO}$ 方法而不牺牲理论保证。特别是$\mathsf{AMM\!\!-\!\!PGO}^{\#}$方法,不需要主节点,完全去中心化,具有新颖的自适应重启方案,收敛速度快类似于 $\mathsf{AMM\!\!-\!\!PGO}^*$ 方法使用主节点聚合来自所有其他节点的信息。这项工作的有效性通过对 2D 和 3D SLAM 基准数据集的广泛应用以及与现有最先进方法的全面比较得到验证,表明我们的 MM 方法收敛速度更快,并为分布式 PGO 提供了更好的解决方案。具有新颖的自适应重启方案,收敛速度与 $\mathsf{AMM\!\!-\!\!PGO}^*$ 方法相当,使用主节点聚合来自所有其他节点的信息。这项工作的有效性通过对 2D 和 3D SLAM 基准数据集的广泛应用以及与现有最先进方法的全面比较得到验证,表明我们的 MM 方法收敛速度更快,并为分布式 PGO 提供了更好的解决方案。具有新颖的自适应重启方案,收敛速度与 $\mathsf{AMM\!\!-\!\!PGO}^*$ 方法相当,使用主节点聚合来自所有其他节点的信息。这项工作的有效性通过对 2D 和 3D SLAM 基准数据集的广泛应用以及与现有最先进方法的全面比较得到验证,表明我们的 MM 方法收敛速度更快,并为分布式 PGO 提供了更好的解决方案。
更新日期:2021-08-03
down
wechat
bug