当前位置: X-MOL 学术J. Classif. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Robustification of Gaussian Bayes Classifier by the Minimum β-Divergence Method
Journal of Classification ( IF 1.8 ) Pub Date : 2019-04-01 , DOI: 10.1007/s00357-019-9306-1
Md. Matiur Rahaman , Md. Nurul Haque Mollah

The goal of classification is to classify new objects into one of the several known populations. A common problem in most of the existing classifiers is that they are very much sensitive to outliers. To overcome this problem, several author’s attempt to robustify some classifiers including Gaussian Bayes classifiers based on robust estimation of mean vectors and covariance matrices. However, these type of robust classifiers work well when only training datasets are contaminated by outliers. They produce misleading results like the traditional classifiers when the test data vectors are contaminated by outliers as well. Most of them also show weak performance if we gradually increase the number of variables in the dataset by fixing the sample size. As the remedies of these problems, an attempt is made to propose a highly robust Gaussian Bayes classifiers by the minimum β-divergence method. The performance of the proposed method depends on the value of tuning parameter β, initialization of Gaussian parameters, detection of outlying test vectors, and detection of their variable-wise outlying components. We have discussed some techniques in this paper to improve the performance of the proposed method by tackling these issues. The proposed classifier reduces to the MLE-based Gaussian Bayes classifier when β → 0. The performance of the proposed method is investigated using both synthetic and real datasets. It is observed that the proposed method improves the performance over the traditional and other robust linear classifiers in presence of outliers. Otherwise, it keeps equal performance.

中文翻译:

最小β-散度法对高斯贝叶斯分类器的鲁棒化

分类的目标是将新对象分类到几个已知种群之一。大多数现有分类器的一个常见问题是它们对异常值非常敏感。为了克服这个问题,几位作者试图基于均值向量和协方差矩阵的稳健估计来增强一些分类器,包括高斯贝叶斯分类器。然而,当只有训练数据集被异常值污染时,这些类型的鲁棒分类器效果很好。当测试数据向量也被异常值污染时,它们会像传统分类器一样产生误导性的结果。如果我们通过固定样本大小逐渐增加数据集中的变量数量,它们中的大多数也会表现出较弱的性能。作为这些问题的补救措施,尝试通过最小β-散度方法提出高度鲁棒的高斯贝叶斯分类器。所提出方法的性能取决于调整参数 β 的值、高斯参数的初始化、外围测试向量的检测以及它们的可变外围分量的检测。我们在本文中讨论了一些技术,以通过解决这些问题来提高所提出方法的性能。当 β → 0 时,所提出的分类器简化为基于 MLE 的高斯贝叶斯分类器。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。所提出方法的性能取决于调整参数 β 的值、高斯参数的初始化、外围测试向量的检测以及它们的可变外围分量的检测。我们在本文中讨论了一些技术,以通过解决这些问题来提高所提出方法的性能。当 β → 0 时,所提出的分类器简化为基于 MLE 的高斯贝叶斯分类器。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。所提出方法的性能取决于调整参数 β 的值、高斯参数的初始化、外围测试向量的检测以及它们的可变外围分量的检测。我们在本文中讨论了一些技术,以通过解决这些问题来提高所提出方法的性能。当 β → 0 时,所提出的分类器简化为基于 MLE 的高斯贝叶斯分类器。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。检测外围测试向量,并检测它们的可变外围组件。我们在本文中讨论了一些技术,以通过解决这些问题来提高所提出方法的性能。当 β → 0 时,所提出的分类器简化为基于 MLE 的高斯贝叶斯分类器。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。检测外围测试向量,并检测它们的可变外围组件。我们在本文中讨论了一些技术,以通过解决这些问题来提高所提出方法的性能。当 β → 0 时,所提出的分类器简化为基于 MLE 的高斯贝叶斯分类器。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。使用合成数据集和真实数据集来研究所提出方法的性能。观察到,在存在异常值的情况下,所提出的方法提高了传统和其他鲁棒线性分类器的性能。否则,它保持相同的性能。
更新日期:2019-04-01
down
wechat
bug