当前位置:
X-MOL 学术
›
arXiv.cs.RO
›
论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A Hybrid Compact Neural Architecture for Visual Place Recognition
arXiv - CS - Robotics Pub Date : 2019-10-15 , DOI: arxiv-1910.06840 Marvin Chanc\'an, Luis Hernandez-Nunez, Ajay Narendra, Andrew B. Barron, Michael Milford
arXiv - CS - Robotics Pub Date : 2019-10-15 , DOI: arxiv-1910.06840 Marvin Chanc\'an, Luis Hernandez-Nunez, Ajay Narendra, Andrew B. Barron, Michael Milford
State-of-the-art algorithms for visual place recognition, and related visual
navigation systems, can be broadly split into two categories:
computer-science-oriented models including deep learning or image
retrieval-based techniques with minimal biological plausibility, and
neuroscience-oriented dynamical networks that model temporal properties
underlying spatial navigation in the brain. In this letter, we propose a new
compact and high-performing place recognition model that bridges this divide
for the first time. Our approach comprises two key neural models of these
categories: (1) FlyNet, a compact, sparse two-layer neural network inspired by
brain architectures of fruit flies, Drosophila melanogaster, and (2) a
one-dimensional continuous attractor neural network (CANN). The resulting
FlyNet+CANN network incorporates the compact pattern recognition capabilities
of our FlyNet model with the powerful temporal filtering capabilities of an
equally compact CANN, replicating entirely in a hybrid neural implementation
the functionality that yields high performance in algorithmic localization
approaches like SeqSLAM. We evaluate our model, and compare it to three
state-of-the-art methods, on two benchmark real-world datasets with small
viewpoint variations and extreme environmental changes - achieving 87% AUC
results under day to night transitions compared to 60% for Multi-Process
Fusion, 46% for LoST-X and 1% for SeqSLAM, while being 6.5, 310, and 1.5 times
faster, respectively.
中文翻译:
一种用于视觉地点识别的混合紧凑型神经架构
用于视觉位置识别和相关视觉导航系统的最先进算法可以大致分为两类:面向计算机科学的模型,包括具有最小生物学合理性的深度学习或基于图像检索的技术,以及神经科学-面向动态网络,模拟大脑空间导航的时间特性。在这封信中,我们提出了一种新的紧凑且高性能的地点识别模型,首次弥合了这一鸿沟。我们的方法包括这些类别的两个关键神经模型:(1)FlyNet,一种受果蝇、黑腹果蝇大脑结构启发的紧凑、稀疏的两层神经网络,以及(2)一维连续吸引子神经网络(CANN) )。由此产生的 FlyNet+CANN 网络结合了我们 FlyNet 模型的紧凑模式识别能力和同样紧凑的 CANN 强大的时间过滤能力,在混合神经实现中完全复制了在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。在混合神经实现中完全复制在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。在混合神经实现中完全复制在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。
更新日期:2020-02-20
中文翻译:
一种用于视觉地点识别的混合紧凑型神经架构
用于视觉位置识别和相关视觉导航系统的最先进算法可以大致分为两类:面向计算机科学的模型,包括具有最小生物学合理性的深度学习或基于图像检索的技术,以及神经科学-面向动态网络,模拟大脑空间导航的时间特性。在这封信中,我们提出了一种新的紧凑且高性能的地点识别模型,首次弥合了这一鸿沟。我们的方法包括这些类别的两个关键神经模型:(1)FlyNet,一种受果蝇、黑腹果蝇大脑结构启发的紧凑、稀疏的两层神经网络,以及(2)一维连续吸引子神经网络(CANN) )。由此产生的 FlyNet+CANN 网络结合了我们 FlyNet 模型的紧凑模式识别能力和同样紧凑的 CANN 强大的时间过滤能力,在混合神经实现中完全复制了在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。在混合神经实现中完全复制在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。在混合神经实现中完全复制在 SeqSLAM 等算法定位方法中产生高性能的功能。我们评估我们的模型,并将其与三种最先进的方法进行比较,在两个具有小视点变化和极端环境变化的基准真实世界数据集上 - 在白天到夜晚的转换下实现 87% 的 AUC 结果,而对于 60%多进程融合,LoST-X 为 46%,SeqSLAM 为 1%,同时分别快 6.5、310 和 1.5 倍。