当前位置: X-MOL 学术IEEE Trans. Neural Netw. Learn. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Learning Target-Domain-Specific Classifier for Partial Domain Adaptation.
IEEE Transactions on Neural Networks and Learning Systems ( IF 10.4 ) Pub Date : 2021-05-03 , DOI: 10.1109/tnnls.2020.2995648
Chuan-Xian Ren , Pengfei Ge , Peiyi Yang , Shuicheng Yan

Unsupervised domain adaptation (UDA) aims at reducing the distribution discrepancy when transferring knowledge from a labeled source domain to an unlabeled target domain. Previous UDA methods assume that the source and target domains share an identical label space, which is unrealistic in practice since the label information of the target domain is agnostic. This article focuses on a more realistic UDA scenario, i.e., partial domain adaptation (PDA), where the target label space is subsumed to the source label space. In the PDA scenario, the source outliers that are absent in the target domain may be wrongly matched to the target domain (technically named negative transfer), leading to performance degradation of UDA methods. This article proposes a novel target-domain-specific classifier learning-based domain adaptation (TSCDA) method. TSCDA presents a soft-weighed maximum mean discrepancy criterion to partially align feature distributions and alleviate negative transfer. Also, it learns a target-specific classifier for the target domain with pseudolabels and multiple auxiliary classifiers to further address the classifier shift. A module named peers-assisted learning is used to minimize the prediction difference between multiple target-specific classifiers, which makes the classifiers more discriminant for the target domain. Extensive experiments conducted on three PDA benchmark data sets show that TSCDA outperforms other state-of-the-art methods with a large margin, e.g., 4% and 5.6% averagely on Office-31 and Office-Home, respectively.

中文翻译:

学习用于部分域适应的目标域特定分类器。

无监督域适应 (UDA) 旨在减少将知识从标记源域转移到未标记目标域时的分布差异。以前的 UDA 方法假设源域和目标域共享相同的标签空间,这在实践中是不现实的,因为目标域的标签信息是不可知的。本文重点介绍一个更现实的 UDA 场景,即部分域适应 (PDA),其中目标标签空间包含在源标签空间中。在 PDA 场景中,目标域中不存在的源异常值可能与目标域错误匹配(技术上称为负迁移),从而导致 UDA 方法的性能下降。本文提出了一种新的基于目标域特定分类器学习的域适应 (TSCDA) 方法。TSCDA 提出了一个软加权最大平均差异标准,以部分对齐特征分布并减轻负转移。此外,它使用伪标签和多个辅助分类器为目标域学习特定于目标的分类器,以进一步解决分类器偏移问题。一个名为 peers-assistant learning 的模块被用来最小化多个特定目标分类器之间的预测差异,这使得分类器对目标域更具辨别力。在三个 PDA 基准数据集上进行的大量实验表明,TSCDA 以很大的优势优于其他最先进的方法,例如,在 Office-31 和 Office-Home 上的平均分别为 4% 和 5.6%。它通过伪标签和多个辅助分类器为目标域学习特定于目标的分类器,以进一步解决分类器偏移问题。一个名为 peers-assistant learning 的模块被用来最小化多个特定目标分类器之间的预测差异,这使得分类器对目标域更具辨别力。在三个 PDA 基准数据集上进行的大量实验表明,TSCDA 以很大的优势优于其他最先进的方法,例如,在 Office-31 和 Office-Home 上的平均分别为 4% 和 5.6%。它使用伪标签和多个辅助分类器为目标域学习特定于目标的分类器,以进一步解决分类器偏移。一个名为 peers-assistant learning 的模块被用来最小化多个特定目标分类器之间的预测差异,这使得分类器对目标域更具辨别力。在三个 PDA 基准数据集上进行的大量实验表明,TSCDA 以很大的优势优于其他最先进的方法,例如,在 Office-31 和 Office-Home 上的平均分别为 4% 和 5.6%。这使得分类器对目标域更具辨别力。在三个 PDA 基准数据集上进行的大量实验表明,TSCDA 以很大的优势优于其他最先进的方法,例如,在 Office-31 和 Office-Home 上的平均分别为 4% 和 5.6%。这使得分类器对目标域更具辨别力。在三个 PDA 基准数据集上进行的大量实验表明,TSCDA 以很大的优势优于其他最先进的方法,例如,在 Office-31 和 Office-Home 上的平均分别为 4% 和 5.6%。
更新日期:2020-06-04
down
wechat
bug