当前位置: X-MOL 学术Neurocomputing › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Subspace learning for unsupervised feature selection via adaptive structure learning and rank approximation
Neurocomputing ( IF 5.5 ) Pub Date : 2020-11-01 , DOI: 10.1016/j.neucom.2020.06.111
Ronghua Shang , Kaiming Xu , Licheng Jiao

Abstract Traditional unsupervised feature selection methods usually construct a fixed similarity matrix. This matrix is sensitive to noise and becomes unreliable, which affects the performance of feature selection. The researches have shown that both the global reconstruction information and local structure information are important for feature selection. To solve the above problem effectively and make use of the global and local information of data simultaneously, a novel algorithm is proposed in this paper, called subspace learning for unsupervised feature selection via adaptive structure learning and rank approximation (SLASR). Specifically, SLASR learns the manifold structure adaptively, thus the preserved local geometric structure can be more accurate and more robust to noise. As a result, the learning of the similarity matrix and the low-dimensional embedding is completed in one step, which improves the effect of feature selection. Meanwhile, SLASR adopts the matrix factorization subspace learning framework. By minimizing the reconstruction error of subspace learning residual matrix, the global reconstruction information of data is preserved. Then, to guarantee more accurate manifold structure of the similarity matrix, a rank constraint is used to constrain the Laplacian matrix. Additionally, the l2,1/2 regularization term is used to constrain the projection matrix to select the most sparse and robust features. Experimental results on twelve benchmark datasets show that SLASR is superior to the six comparison algorithms from the literature.

中文翻译:

通过自适应结构学习和秩逼近进行无监督特征选择的子空间学习

摘要 传统的无监督特征选择方法通常构造一个固定的相似度矩阵。该矩阵对噪声敏感,变得不可靠,影响特征选择的性能。研究表明,全局重建信息和局部结构信息对于特征选择都很重要。为了有效解决上述问题并同时利用数据的全局和局部信息,本文提出了一种新的算法,称为通过自适应结构学习和秩逼近进行无监督特征选择的子空间学习(SLASR)。具体来说,SLASR 自适应地学习流形结构,因此保留的局部几何结构可以更准确,对噪声更鲁棒。因此,相似度矩阵的学习和低维嵌入一步完成,提高了特征选择的效果。同时,SLASR采用矩阵分解子空间学习框架。通过最小化子空间学习残差矩阵的重构误差,保留了数据的全局重构信息。然后,为了保证相似矩阵更准确的流形结构,使用秩约束来约束拉普拉斯矩阵。此外,l2,1/2 正则化项用于约束投影矩阵以选择最稀疏和最稳健的特征。在十二个基准数据集上的实验结果表明,SLASR 优于文献中的六种比较算法。同时,SLASR采用矩阵分解子空间学习框架。通过最小化子空间学习残差矩阵的重构误差,保留了数据的全局重构信息。然后,为了保证相似矩阵更精确的流形结构,使用秩约束来约束拉普拉斯矩阵。此外,l2,1/2 正则化项用于约束投影矩阵以选择最稀疏和最稳健的特征。在十二个基准数据集上的实验结果表明,SLASR 优于文献中的六种比较算法。同时,SLASR采用矩阵分解子空间学习框架。通过最小化子空间学习残差矩阵的重构误差,保留了数据的全局重构信息。然后,为了保证相似矩阵更精确的流形结构,使用秩约束来约束拉普拉斯矩阵。此外,l2,1/2 正则化项用于约束投影矩阵以选择最稀疏和最稳健的特征。在十二个基准数据集上的实验结果表明,SLASR 优于文献中的六种比较算法。为了保证相似矩阵的流形结构更准确,使用秩约束来约束拉普拉斯矩阵。此外,l2,1/2 正则化项用于约束投影矩阵以选择最稀疏和最稳健的特征。在十二个基准数据集上的实验结果表明,SLASR 优于文献中的六种比较算法。为了保证相似矩阵的流形结构更准确,使用秩约束来约束拉普拉斯矩阵。此外,l2,1/2 正则化项用于约束投影矩阵以选择最稀疏和最稳健的特征。在十二个基准数据集上的实验结果表明,SLASR 优于文献中的六种比较算法。
更新日期:2020-11-01
down
wechat
bug