当前位置: X-MOL 学术Pattern Recogn. Lett. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Deep ladder reconstruction-classification network for unsupervised domain adaptation
Pattern Recognition Letters ( IF 5.1 ) Pub Date : 2021-10-12 , DOI: 10.1016/j.patrec.2021.10.009
Wanxia Deng 1 , Zhuo Su 2 , Qiang Qiu 3 , Lingjun Zhao 1 , Gangyao Kuang 1 , Matti Pietikäinen 2 , Huaxin Xiao 4 , Li Liu 2, 4
Affiliation  

Unsupervised Domain Adaptation aims to learn a classifier for an unlabeled target domain by transferring knowledge from a labeled source domain. Most existing approaches learn domain-invariant features by adapting the entire information of each image. However, forcing adaptation of domain-specific components can undermine the effectiveness of learned features. We propose a novel architecture called Deep Ladder Reconstruction-Classification Network (DLaReC) which is designed to learn cross-domain shared contents by suppressing domain-specific variations. The DLaReC adopts an encoder with cross-domain sharing and a target-domain reconstruction decoder. The encoder and decoder are connected with residual shortcuts at each intermediate layer. By this means, the domain-specific components are directly fed to the decoder for reconstruction, relieving the pressure to learn domain-specific variations at later layers of the shared encoder. Therefore, DLaReC allows the encoder to focus on learning cross-domain shared representations and ignore domain-specific variations. DLaReC is implemented by jointly learning three tasks: supervised classification of the source domain, unsupervised reconstruction of the target domain and cross-domain shared representation adaptation. Extensive experiments on Digit, Office31, ImageCLEF-DA and Office-Home datasets demonstrate the DLaReC outperforms state-of-the-art methods on the whole. The average accuracy on the Digit datasets, for instance, is improved from 95.6% to 96.9%. In addition, the result on Amazon Webcam obtains significant improvement, i.e., from 91.1% to 94.7%.



中文翻译:

用于无监督域适应的深阶梯重建分类网络

无监督域适应旨在通过从标记源域中转移知识来学习未标记目标域的分类器。大多数现有方法通过调整每个图像的整个信息来学习域不变特征。然而,强制适应特定领域的组件会破坏学习特征的有效性。我们提出了一种称为深阶梯重建分类网络 (DLaReC) 的新型架构,该架构旨在通过抑制特定领域的变化来学习跨域共享内容。DLaReC 采用具有跨域共享的编码器和目标域重建解码器。编码器和解码器在每个中间层都与残差捷径相连。通过这种方式,特定领域的组件被直接馈送到解码器进行重构,减轻在共享编码器的后面层学习特定领域变化的压力。因此,DLaReC 允许编码器专注于学习跨域共享表示并忽略特定于域的变化。DLaReC 是通过联合学习三个任务来实现的:源域的监督分类、目标域的无监督重建和跨域共享表示适应。在 Digit、Office31、ImageCLEF-DA 和 Office-Home 数据集上进行的大量实验表明,DLaReC 总体上优于最先进的方法。例如,Digit 数据集的平均准确率从 95.6% 提高到 96.9%。此外,亚马逊上的结果 DLaReC 允许编码器专注于学习跨域共享表示并忽略特定于域的变化。DLaReC 是通过联合学习三个任务来实现的:源域的监督分类、目标域的无监督重建和跨域共享表示适应。在 Digit、Office31、ImageCLEF-DA 和 Office-Home 数据集上进行的大量实验表明,DLaReC 总体上优于最先进的方法。例如,Digit 数据集的平均准确率从 95.6% 提高到 96.9%。此外,亚马逊上的结果 DLaReC 允许编码器专注于学习跨域共享表示并忽略特定于域的变化。DLaReC 是通过联合学习三个任务来实现的:源域的监督分类、目标域的无监督重建和跨域共享表示适应。在 Digit、Office31、ImageCLEF-DA 和 Office-Home 数据集上进行的大量实验表明,DLaReC 总体上优于最先进的方法。例如,Digit 数据集的平均准确率从 95.6% 提高到 96.9%。此外,亚马逊上的结果 目标域的无监督重建和跨域共享表示适应。在 Digit、Office31、ImageCLEF-DA 和 Office-Home 数据集上进行的大量实验表明,DLaReC 总体上优于最先进的方法。例如,Digit 数据集的平均准确率从 95.6% 提高到 96.9%。此外,亚马逊上的结果 目标域的无监督重建和跨域共享表示适应。在 Digit、Office31、ImageCLEF-DA 和 Office-Home 数据集上进行的大量实验表明,DLaReC 总体上优于最先进的方法。例如,Digit 数据集的平均准确率从 95.6% 提高到 96.9%。此外,亚马逊上的结果网络摄像头获得显着改进,从 91.1% 提高到 94.7%。

更新日期:2021-11-18
down
wechat
bug