当前位置: X-MOL 学术Int. J. Intell. Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Semi-supervised multiple empirical kernel learning with pseudo empirical loss and similarity regularization
International Journal of Intelligent Systems ( IF 7 ) Pub Date : 2021-09-29 , DOI: 10.1002/int.22690
Wei Guo 1, 2 , Zhe Wang 1, 2 , Menghao Ma 1, 2 , Lilong Chen 2 , Hai Yang 2 , Dongdong Li 2 , Wenli Du 1
Affiliation  

Multiple empirical kernel learning (MEKL) is a scalable and efficient supervised algorithm based on labeled samples. However, there is still a huge amount of unlabeled samples in the real-world application, which are not applicable for the supervised algorithm. To fully utilize the spatial distribution information of the unlabeled samples, this paper proposes a novel semi-supervised multiple empirical kernel learning (SSMEKL). SSMEKL enables multiple empirical kernel learning to achieve better classification performance with a small number of labeled samples and a large number of unlabeled samples. First, SSMEKL uses the collaborative information of multiple kernels to provide a pseudo labels to some unlabeled samples in the optimization process of the model, and SSMEKL designs pseudo-empirical loss to transform learning process of the unlabeled samples into supervised learning. Second, SSMEKL designs the similarity regularization for unlabeled samples to make full use of the spatial information of unlabeled samples. It is required that the output of unlabeled samples should be similar to the neighboring labeled samples to improve the classification performance of the model. The proposed SSMEKL can improve the performance of the classifier by using a small number of labeled samples and numerous unlabeled samples to improve the classification performance of MEKL. In the experiment, the results on four real-world data sets and two multiview data sets validate the effectiveness and superiority of the proposed SSMEKL.

中文翻译:

具有伪经验损失和相似性正则化的半监督多经验核学习

多经验核学习 (MEKL) 是一种基于标记样本的可扩展且高效的监督算法。然而,实际应用中仍有大量未标记的样本,不适用于监督算法。为了充分利用未标记样本的空间分布信息,本文提出了一种新的半监督多经验核学习(SSMEKL)。SSMEKL 使多经验核学习能够在少量标记样本和大量未标记样本的情况下实现更好的分类性能。首先,SSMEKL在模型优化过程中,利用多个核的协同信息为一些未标记的样本提供伪标签,SSMEKL 设计了伪经验损失,将未标记样本的学习过程转化为监督学习。其次,SSMEKL为未标记样本设计了相似性正则化,以充分利用未标记样本的空间信息。要求未标记样本的输出与相邻的标记样本相似,以提高模型的分类性能。所提出的SSMEKL可以通过使用少量标记样本和大量未标记样本来提高分类器的性能,以提高MEKL的分类性能。在实验中,四个真实世界数据集和两个多视图数据集的结果验证了所提出的 SSMEKL 的有效性和优越性。SSMEKL为未标记样本设计了相似性正则化,以充分利用未标记样本的空间信息。要求未标记样本的输出与相邻的标记样本相似,以提高模型的分类性能。所提出的SSMEKL可以通过使用少量标记样本和大量未标记样本来提高分类器的性能,以提高MEKL的分类性能。在实验中,四个真实世界数据集和两个多视图数据集的结果验证了所提出的 SSMEKL 的有效性和优越性。SSMEKL为未标记样本设计了相似性正则化,以充分利用未标记样本的空间信息。要求未标记样本的输出与相邻的标记样本相似,以提高模型的分类性能。所提出的SSMEKL可以通过使用少量标记样本和大量未标记样本来提高分类器的性能,以提高MEKL的分类性能。在实验中,四个真实世界数据集和两个多视图数据集的结果验证了所提出的 SSMEKL 的有效性和优越性。要求未标记样本的输出与相邻的标记样本相似,以提高模型的分类性能。所提出的SSMEKL可以通过使用少量标记样本和大量未标记样本来提高分类器的性能,以提高MEKL的分类性能。在实验中,四个真实世界数据集和两个多视图数据集的结果验证了所提出的 SSMEKL 的有效性和优越性。要求未标记样本的输出与相邻的标记样本相似,以提高模型的分类性能。所提出的SSMEKL可以通过使用少量标记样本和大量未标记样本来提高分类器的性能,以提高MEKL的分类性能。在实验中,四个真实世界数据集和两个多视图数据集的结果验证了所提出的 SSMEKL 的有效性和优越性。
更新日期:2021-09-29
down
wechat
bug