当前位置: X-MOL 学术IEEE Geosci. Remote Sens. Lett. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Feedback-Enhanced Few-Shot Transformer Learning for Small-Sized Hyperspectral Image Classification
IEEE Geoscience and Remote Sensing Letters ( IF 4.8 ) Pub Date : 2022-08-26 , DOI: 10.1109/lgrs.2022.3202235
Lamei Liu 1 , Dongyu Zuo 1 , Ying Wang 1 , Haicheng Qu 1
Affiliation  

In hyperspectral image (HSI) classification, few-shot learning (FSL) methods achieve satisfactory performance with limited samples. However, the labeled and unlabeled data are not utilized effectively, and the convolution operations restrict the spectral signature extraction for classification in FSL. In this letter, a feedback-enhanced few-shot transformer network (FFTN) is proposed for the small-sized HSI classification. FFTN consists of two feedback learning processes, which are designed to train a learnable classifier on the source domain and transfer it to the target domain. The first process is meta-learning with reinforced feedback training on the source domain, which trains a classifier to learn classification and improves the distinguishing ability of misclassified classes by reinforcement. The second process is target-learning with transductive feedback training on the target domain, where the classifier is transferred from the source to the target domain and learns the distribution of unlabeled samples. The transformer component in FFTN also merges the spatial and spectral attention to extract accurate and representative features. That is, FFTN not only transfers knowledge between different domains by feedback FSL, but also reinforces the feature extraction and exploits the distribution of unlabeled samples to obtain the optimal generalization performance. The results of the comparison experiment on public HSI datasets demonstrate that the FFTN provides a competitive classification performance with small-sized samples.

中文翻译:

用于小尺寸高光谱图像分类的反馈增强少样本变换器学习

在高光谱图像(HSI)分类中,少样本学习(FSL)方法在有限样本的情况下取得了令人满意的性能。然而,标记和未标记的数据没有得到有效利用,卷积操作限制了 FSL 中分类的光谱特征提取。在这封信中,针对小型 HSI 分类提出了一种反馈增强的小样本变压器网络 (FFTN)。FFTN 由两个反馈学习过程组成,旨在在源域上训练一个可学习的分类器并将其转移到目标域。第一个过程是元学习,在源域上进行强化反馈训练,训练分类器学习分类,并通过强化提高错误分类的区分能力。第二个过程是在目标域上进行转导反馈训练的目标学习,其中分类器从源域转移到目标域并学习未标记样本的分布。FFTN 中的 Transformer 组件还融合了空间和光谱注意力,以提取准确且具有代表性的特征。也就是说,FFTN不仅通过反馈FSL在不同领域之间传递知识,而且加强了特征提取,利用未标记样本的分布来获得最佳的泛化性能。在公共 HSI 数据集上的比较实验结果表明,FFTN 在小样本的情况下提供了具有竞争力的分类性能。其中分类器从源域转移到目标域并学习未标记样本的分布。FFTN 中的 Transformer 组件还融合了空间和光谱注意力,以提取准确且具有代表性的特征。也就是说,FFTN不仅通过反馈FSL在不同领域之间传递知识,而且加强了特征提取,利用未标记样本的分布来获得最佳的泛化性能。在公共 HSI 数据集上的比较实验结果表明,FFTN 在小样本的情况下提供了具有竞争力的分类性能。其中分类器从源域转移到目标域并学习未标记样本的分布。FFTN 中的 Transformer 组件还融合了空间和光谱注意力,以提取准确且具有代表性的特征。也就是说,FFTN不仅通过反馈FSL在不同领域之间传递知识,而且加强了特征提取,利用未标记样本的分布来获得最佳的泛化性能。在公共 HSI 数据集上的比较实验结果表明,FFTN 在小样本的情况下提供了具有竞争力的分类性能。FFTN不仅通过反馈FSL在不同领域之间传递知识,而且加强了特征提取并利用未标记样本的分布来获得最佳的泛化性能。在公共 HSI 数据集上的比较实验结果表明,FFTN 在小样本的情况下提供了具有竞争力的分类性能。FFTN不仅通过反馈FSL在不同领域之间传递知识,而且加强了特征提取并利用未标记样本的分布来获得最佳的泛化性能。在公共 HSI 数据集上的比较实验结果表明,FFTN 在小样本的情况下提供了具有竞争力的分类性能。
更新日期:2022-08-26
down
wechat
bug