当前位置: X-MOL 学术IEEE J. Sel. Top. Appl. Earth Obs. Remote Sens. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Refined Extraction of Building Outlines from High-resolution Remote Sensing Imagery Based on a Multifeature Convolutional Neural Network and Morphological Filtering
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing ( IF 4.7 ) Pub Date : 2020-01-01 , DOI: 10.1109/jstars.2020.2991391
Yakun Xie , Jun Zhu , Yungang Cao , Dejun Feng , Minjun Hu , Weilian Li , Yunhao Zhang , Lin Fu

The automatic extraction of building outlines from high-resolution images is an important and challenging task. Convolutional neural networks have shown excellent results compared with traditional building extraction methods because of their ability to extract high-level abstract features from images. However, it is difficult to fully utilize the multiple features of current building extraction methods; consequently, the resulting building boundaries are irregular. To overcome these limitations, we propose a method for extracting buildings from high-resolution images using a multifeature convolutional neural network (MFCNN) and morphological filtering. Our method consists of two steps. First, the MFCNN, which consists of residual connected unit, dilated perception unit, and pyramid aggregation unit, is used to achieve pixel-level segmentation of the buildings. Second, morphological filtering is used to optimize the building boundaries, improve the boundary regularity, and obtain refined building boundaries. The Massachusetts and Inria datasets are selected for experimental analysis. Under the same experimental conditions, the extraction results achieved with the proposed MFCNN are compared with the results of other deep learning models that have been commonly used in recent years: FCN-8s, SegNet, and U-Net. The results on both datasets reveal that the proposed model improves the F1-score by 3.31%–5.99%, increases the overall accuracy (OA) by 1.85%–3.07%, and increases the intersection over union (IOU) by 3.47%–8.82%. These findings illustrate that the proposed method is effective at extracting buildings from complex scenes.

中文翻译:

基于多特征卷积神经网络和形态滤波的高分辨率遥感影像建筑物轮廓的精细提取

从高分辨率图像中自动提取建筑物轮廓是一项重要且具有挑战性的任务。与传统的建筑物提取方法相比,卷积神经网络显示出优异的结果,因为它们能够从图像中提取高级抽象特征。然而,目前建筑物提取方法的多重特征难以充分利用;因此,由此产生的建筑边界是不规则的。为了克服这些限制,我们提出了一种使用多特征卷积神经网络 (MFCNN) 和形态滤波从高分辨率图像中提取建筑物的方法。我们的方法包括两个步骤。首先,MFCNN,由残差连接单元、扩张感知单元和金字塔聚合单元组成,用于实现建筑物的像素级分割。其次,利用形态学滤波优化建筑物边界,提高边界规则性,得到细化的建筑物边界。选择马萨诸塞州和 Inria 数据集进行实验分析。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。两个数据集的结果表明,所提出的模型将 F1-score 提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。其次,利用形态学滤波优化建筑物边界,提高边界规则性,得到细化的建筑物边界。选择马萨诸塞州和 Inria 数据集进行实验分析。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。其次,利用形态学滤波优化建筑物边界,提高边界规则性,得到细化的建筑物边界。选择马萨诸塞州和 Inria 数据集进行实验分析。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。提高边界规则性,得到精细化的建筑边界。选择马萨诸塞州和 Inria 数据集进行实验分析。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。提高边界规则性,得到精细化的建筑边界。选择马萨诸塞州和 Inria 数据集进行实验分析。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。在相同的实验条件下,将提出的 MFCNN 取得的提取结果与近年来常用的其他深度学习模型的结果进行比较:FCN-8s、SegNet 和 U-Net。在两个数据集上的结果表明,所提出的模型将 F1 分数提高了 3.31%–5.99%,将总体准确率 (OA) 提高了 1.85%–3.07%,并将联合交集 (IOU) 提高了 3.47%–8.82 %。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。将整体准确度 (OA) 提高了 1.85%–3.07%,将并集交集 (IOU) 提高了 3.47%–8.82%。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。将整体准确度 (OA) 提高了 1.85%–3.07%,将并集交集 (IOU) 提高了 3.47%–8.82%。这些发现表明,所提出的方法在从复杂场景中提取建筑物方面是有效的。
更新日期:2020-01-01
down
wechat
bug