当前位置: X-MOL 学术Int. J. Appl. Earth Obs. Geoinf. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Extracting buildings from high-resolution remote sensing images by deep ConvNets equipped with structural-cue-guided feature alignment
International Journal of Applied Earth Observation and Geoinformation ( IF 7.6 ) Pub Date : 2022-08-27 , DOI: 10.1016/j.jag.2022.102970
Wangbin Li , Kaimin Sun , Hepeng Zhao , Wenzhuo Li , Jinjiang Wei , Song Gao

In surveying, mapping and geographic information systems, building extraction from remote sensing imagery is a common task. However, there are still some challenges in automatic building extraction. First, using only single-scale depth features cannot take into account the uncertainty of features such as the hue and texture of buildings in images, and the results are prone to missed detection. Moreover, extracted high-level features often lose structural information and have scale differences with low-level features, which results in less accurate extraction of boundaries. To simultaneously address these problems, we propose pyramid feature extraction (PFE) to construct multi-scale representations of buildings, which is inspired by the feature extraction of scale-invariant feature transform. We also apply attention modules in channel dimension and spatial dimension to PFE and low-level feature maps. Furthermore, we use the structural-cue-guided feature alignment module to learn the correlation between feature maps at different levels, obtaining high-resolution features with strong semantic representation and ensuring the integrity of high-level features in both structural and semantic dimensions. An edge loss is applied to get a highly accurate building boundary. For the WHU Building Dataset, our method achieves an F1 score of 95.3% and an Intersection over Union (IoU) score of 90.9%; for the Massachusetts Buildings Dataset, our method achieves an F1 score of 85.0% and an IoU score of 74.1%.



中文翻译:

通过配备结构线索引导特征对齐的深度卷积网络从高分辨率遥感图像中提取建筑物

在测绘和地理信息系统中,从遥感图像中提取建筑物是一项常见任务。然而,自动建筑物提取仍然存在一些挑战。首先,仅使用单尺度深度特征不能考虑图像中建筑物的色调和纹理等特征的不确定性,结果容易漏检。此外,提取的高级特征往往会丢失结构信息,并且与低级特征存在尺度差异,从而导致边界提取的准确性较低。为了同时解决这些问题,我们提出了金字塔特征提取(PFE)来构建建筑物的多尺度表示,其灵感来自尺度不变特征变换的特征提取。我们还将通道维度和空间维度中的注意模块应用于 PFE 和低级特征图。此外,我们使用结构线索引导的特征对齐模块来学习不同层次特征图之间的相关性,获得具有强语义表示的高分辨率特征,并确保结构和语义维度上高层特征的完整性。应用边缘损失以获得高度准确的建筑物边界。对于 WHU Building Dataset,我们的方法实现了 95.3% 的 F1 分数和 90.9% 的 Intersection over Union (IoU) 分数;对于马萨诸塞州建筑数据集,我们的方法实现了 85.0% 的 F1 分数和 74.1% 的 IoU 分数。我们使用结构线索引导的特征对齐模块来学习不同层次的特征图之间的相关性,获得具有强语义表示的高分辨率特征,并确保结构和语义维度上高层特征的完整性。应用边缘损失以获得高度准确的建筑物边界。对于 WHU Building Dataset,我们的方法实现了 95.3% 的 F1 分数和 90.9% 的 Intersection over Union (IoU) 分数;对于马萨诸塞州建筑数据集,我们的方法实现了 85.0% 的 F1 分数和 74.1% 的 IoU 分数。我们使用结构线索引导的特征对齐模块来学习不同层次的特征图之间的相关性,获得具有强语义表示的高分辨率特征,并确保结构和语义维度上高层特征的完整性。应用边缘损失以获得高度准确的建筑物边界。对于 WHU Building Dataset,我们的方法实现了 95.3% 的 F1 分数和 90.9% 的 Intersection over Union (IoU) 分数;对于马萨诸塞州建筑数据集,我们的方法实现了 85.0% 的 F1 分数和 74.1% 的 IoU 分数。应用边缘损失以获得高度准确的建筑物边界。对于 WHU Building Dataset,我们的方法实现了 95.3% 的 F1 分数和 90.9% 的 Intersection over Union (IoU) 分数;对于马萨诸塞州建筑数据集,我们的方法实现了 85.0% 的 F1 分数和 74.1% 的 IoU 分数。应用边缘损失以获得高度准确的建筑物边界。对于 WHU Building Dataset,我们的方法实现了 95.3% 的 F1 分数和 90.9% 的 Intersection over Union (IoU) 分数;对于马萨诸塞州建筑数据集,我们的方法实现了 85.0% 的 F1 分数和 74.1% 的 IoU 分数。

更新日期:2022-08-29
down
wechat
bug