当前位置: X-MOL 学术Appl. Intell. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Cost-sensitive probability for weighted voting in an ensemble model for multi-class classification problems
Applied Intelligence ( IF 3.4 ) Pub Date : 2021-01-06 , DOI: 10.1007/s10489-020-02106-3
Artittayapron Rojarath , Wararat Songpan

Ensemble learning is an algorithm that utilizes various types of classification models. This algorithm can enhance the prediction efficiency of component models. However, the efficiency of combining models typically depends on the diversity and accuracy of the predicted results of ensemble models. However, the problem of multi-class data is still encountered. In the proposed approach, cost-sensitive learning was implemented to evaluate the prediction accuracy for each class, which was used to construct a cost-sensitivity matrix of the true positive (TP) rate. This TP rate can be used as a weight value and combined with a probability value to drive ensemble learning for a specified class. We proposed an ensemble model, which was a type of heterogenous model, namely, a combination of various individual classification models (support vector machine, Bayes, K-nearest neighbour, naïve Bayes, decision tree, and multi-layer perceptron) in experiments on 3-, 4-, 5- and 6-classifier models. The efficiencies of the propose models were compared to those of the individual classifier model and homogenous models (Adaboost, bagging, stacking, voting, random forest, and random subspaces) with various multi-class data sets. The experimental results demonstrate that the cost-sensitive probability for the weighted voting ensemble model that was derived from 3 models provided the most accurate results for the dataset in multi-class prediction. The objective of this study was to increase the efficiency of predicting classification results in multi-class classification tasks and to improve the classification results.



中文翻译:

集成模型中多类别分类问题的加权投票成本敏感概率

集成学习是一种利用各种类型的分类模型的算法。该算法可以提高组件模型的预测效率。但是,组合模型的效率通常取决于集成模型的预测结果的多样性和准确性。但是,仍然遇到多类数据的问题。在提出的方法中,实施了成本敏感型学习以评估每个类别的预测准确性,该方法用于构造真实正(TP)率的成本敏感度矩阵。TP率可用作权重值,并与概率值组合以驱动特定类的整体学习。我们提出了集成模型,这是一种异质模型,即各种单独分类模型(支持向量机,贝叶斯,K近邻,朴素贝叶斯,决策树和多层感知器)在3、4、5和6分类器模型上的实验。将拟议模型的效率与具有各种多类数据集的单个分类器模型和同质模型(Adaboost,装袋,堆叠,投票,随机森林和随机子空间)的效率进行了比较。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。和多层感知器)在3、4、5和6分类器模型上进行实验。将拟议模型的效率与具有各种多类数据集的单个分类器模型和同质模型(Adaboost,装袋,堆叠,投票,随机森林和随机子空间)的效率进行了比较。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高在多类别分类任务中预测分类结果的效率,并改善分类结果。和多层感知器)在3、4、5和6分类器模型上进行实验。将拟议模型的效率与具有各种多类数据集的单个分类器模型和同质模型(Adaboost,装袋,堆叠,投票,随机森林和随机子空间)的效率进行了比较。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。将拟议模型的效率与具有各种多类数据集的单个分类器模型和同质模型(Adaboost,装袋,堆叠,投票,随机森林和随机子空间)的效率进行了比较。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。将拟议模型的效率与具有各种多类数据集的单个分类器模型和同质模型(Adaboost,装袋,堆叠,投票,随机森林和随机子空间)的效率进行了比较。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。实验结果表明,从3个模型导出的加权投票集成模型的成本敏感概率为多类预测中的数据集提供了最准确的结果。这项研究的目的是提高多类别分类任务中预测分类结果的效率,并改善分类结果。

更新日期:2021-01-06
down
wechat
bug