当前位置: X-MOL 学术IEEE Signal Process. Lett. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
An Information-Theoretic Approach to Personalized Explainable Machine Learning
IEEE Signal Processing Letters ( IF 3.2 ) Pub Date : 2020-01-01 , DOI: 10.1109/lsp.2020.2993176
Alexander Jung , Pedro H. J. Nardelli

Automated decision making is used routinely throughout our every-day life. Recommender systems decide which jobs, movies, or other user profiles might be interesting to us. Spell checkers help us to make good use of language. Fraud detection systems decide if a credit card transactions should be verified more closely. Many of these decision making systems use machine learning methods that fit complex models to massive datasets. The successful deployment of machine learning (ML) methods to many (critical) application domains crucially depends on its explainability. Indeed, humans have a strong desire to get explanations that resolve the uncertainty about experienced phenomena like the predictions and decisions obtained from ML methods. Explainable ML is challenging since explanations must be tailored (personalized) to individual users with varying backgrounds. Some users might have received university-level education in ML, while other users might have no formal training in linear algebra. Linear regression with few features might be perfectly interpretable for the first group but might be considered a black-box by the latter. We propose a simple probabilistic model for the predictions and user knowledge. This model allows to study explainable ML using information theory. Explaining is here considered as the task of reducing the “surprise” incurred by a prediction. We quantify the effect of an explanation by the conditional mutual information between the explanation and prediction, given the user background.

中文翻译:

个性化可解释机器学习的信息论方法

自动化决策在我们的日常生活中经常使用。推荐系统决定我们可能对哪些工作、电影或其他用户配置文件感兴趣。拼写检查器帮助我们很好地使用语言。欺诈检测系统决定是否应更密切地验证信用卡交易。许多决策系统使用机器学习方法,将复杂模型与海量数据集相匹配。将机器学习 (ML) 方法成功部署到许多(关键)应用领域关键取决于其可解释性。事实上,人类非常渴望得到解释,以解决经验现象的不确定性,例如从 ML 方法获得的预测和决策。可解释 ML 具有挑战性,因为解释必须针对具有不同背景的个人用户量身定制(个性化)。一些用户可能接受过机器学习的大学教育,而其他用户可能没有接受过线性代数方面的正式培训。具有很少特征的线性回归对于第一组可能是完全可以解释的,但可能被后者视为黑盒。我们为预测和用户知识提出了一个简单的概率模型。该模型允许使用信息论研究可解释的机器学习。解释在这里被认为是减少由预测引起的“惊喜”的任务。给定用户背景,我们通过解释和预测之间的条件互信息来量化解释的效果。一些用户可能接受过机器学习的大学教育,而其他用户可能没有接受过线性代数方面的正式培训。具有很少特征的线性回归对于第一组可能是完全可以解释的,但可能被后者视为黑盒。我们为预测和用户知识提出了一个简单的概率模型。该模型允许使用信息论研究可解释的机器学习。解释在这里被认为是减少由预测引起的“惊喜”的任务。给定用户背景,我们通过解释和预测之间的条件互信息来量化解释的效果。一些用户可能接受过机器学习的大学教育,而其他用户可能没有接受过线性代数方面的正式培训。具有很少特征的线性回归对于第一组可能是完全可以解释的,但可能被后者视为黑盒。我们为预测和用户知识提出了一个简单的概率模型。该模型允许使用信息论研究可解释的机器学习。解释在这里被认为是减少由预测引起的“惊喜”的任务。给定用户背景,我们通过解释和预测之间的条件互信息来量化解释的效果。具有很少特征的线性回归对于第一组可能是完全可以解释的,但可能被后者视为黑盒。我们为预测和用户知识提出了一个简单的概率模型。该模型允许使用信息论研究可解释的机器学习。解释在这里被认为是减少由预测引起的“惊喜”的任务。给定用户背景,我们通过解释和预测之间的条件互信息来量化解释的效果。具有很少特征的线性回归对于第一组可能是完全可以解释的,但可能被后者视为黑盒。我们为预测和用户知识提出了一个简单的概率模型。该模型允许使用信息论研究可解释的机器学习。解释在这里被认为是减少由预测引起的“惊喜”的任务。给定用户背景,我们通过解释和预测之间的条件互信息来量化解释的效果。
更新日期:2020-01-01
down
wechat
bug