当前位置: X-MOL 学术Neurocomputing › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Kernel-Target Alignment based Non-linear Metric Learning
Neurocomputing ( IF 6 ) Pub Date : 2020-10-01 , DOI: 10.1016/j.neucom.2020.06.042
Yonghui Xu , Chunyan Miao , Yong Liu , Hengjie Song , Yi Hu , Huaqing Min

Abstract Distance metric learning aims to learn a measure of the pairwise distance between data instances, which is essential for various machine learning algorithms and applications. However, existing linear metric learning methods based on linear transformations fail to capture nonlinear relationships between instances, while most existing kernel-based metric learning algorithms may ignore the correlation between the kernel function and the target learning task during model selection, which results in a suboptimal selection of kernels. To address the aforementioned issues, we propose a method named Kernel Alignment based Metric Learning with Random Fourier Approximation ( KAML RFA ). Specifically, on one hand, we utilize the random Fourier features to approximate the shift-invariant kernel function for distance metric learning. On the other hand, we attempt to maximize the degree of agreement between the kernel function and the target learning task. In this way, distance metric learning is performed in a discriminative feature space. Compared with those kernel metric learning algorithms whose kernel functions fall into a suboptimal, KAML RFA achieves the optimal kernel function for the target task and improves classification accuracy. We develop an efficient solution to solve the proposed optimization problem. Extensive experiments are conducted on several benchmark datasets including NUS-WIDE-LITE, USPS, MNIST, LETTER and 10 UCI datasets to verify the effectiveness of KAML RFA compared with state-of-the-art methods.

中文翻译:

基于核-目标对齐的非线性度量学习

摘要 距离度量学习旨在学习数据实例之间成对距离的度量,这对于各种机器学习算法和应用程序至关重要。然而,现有的基于线性变换的线性度量学习方法无法捕捉实例之间的非线性关系,而现有的大多数基于核的度量学习算法在模型选择过程中可能会忽略核函数与目标学习任务之间的相关性,从而导致次优内核的选择。为了解决上述问题,我们提出了一种名为基于核对齐的随机傅立叶近似度量学习(KAML RFA)的方法。具体来说,一方面,我们利用随机傅立叶特征来近似用于距离度量学习的平移不变核函数。另一方面,我们试图最大化核函数和目标学习任务之间的一致程度。这样,距离度量学习是在判别特征空间中进行的。与那些核函数属于次优的核度量学习算法相比,KAML RFA 实现了目标任务的最优核函数,提高了分类精度。我们开发了一个有效的解决方案来解决所提出的优化问题。在多个基准数据集上进行了大量实验,包括 NUS-WIDE-LITE、USPS、MNIST、LETTER 和 10 个 UCI 数据集,以验证 KAML RFA 与最先进方法相比的有效性。距离度量学习是在判别特征空间中进行的。与那些核函数属于次优的核度量学习算法相比,KAML RFA 实现了目标任务的最优核函数,提高了分类精度。我们开发了一个有效的解决方案来解决所提出的优化问题。在多个基准数据集上进行了大量实验,包括 NUS-WIDE-LITE、USPS、MNIST、LETTER 和 10 个 UCI 数据集,以验证 KAML RFA 与最先进方法相比的有效性。距离度量学习是在判别特征空间中进行的。与那些核函数属于次优的核度量学习算法相比,KAML RFA 实现了目标任务的最优核函数,提高了分类精度。我们开发了一个有效的解决方案来解决所提出的优化问题。在多个基准数据集上进行了大量实验,包括 NUS-WIDE-LITE、USPS、MNIST、LETTER 和 10 个 UCI 数据集,以验证 KAML RFA 与最先进方法相比的有效性。我们开发了一个有效的解决方案来解决所提出的优化问题。在多个基准数据集上进行了大量实验,包括 NUS-WIDE-LITE、USPS、MNIST、LETTER 和 10 个 UCI 数据集,以验证 KAML RFA 与最先进方法相比的有效性。我们开发了一个有效的解决方案来解决所提出的优化问题。在多个基准数据集上进行了大量实验,包括 NUS-WIDE-LITE、USPS、MNIST、LETTER 和 10 个 UCI 数据集,以验证 KAML RFA 与最先进方法相比的有效性。
更新日期:2020-10-01
down
wechat
bug