当前位置: X-MOL 学术Int. J. Neural Syst. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Middle-Level Features for the Explanation of Classification Systems by Sparse Dictionary Methods
International Journal of Neural Systems ( IF 8 ) Pub Date : 2020-07-30 , DOI: 10.1142/s0129065720500409
A Apicella 1 , F Isgrò 1 , R Prevete 1 , G Tamburrini 1
Affiliation  

Machine learning (ML) systems are affected by a pervasive lack of transparency. The eXplainable Artificial Intelligence (XAI) research area addresses this problem and the related issue of explaining the behavior of ML systems in terms that are understandable to human beings. In many explanation of XAI approaches, the output of ML systems are explained in terms of low-level features of their inputs. However, these approaches leave a substantive explanatory burden with human users, insofar as the latter are required to map low-level properties into more salient and readily understandable parts of the input. To alleviate this cognitive burden, an alternative model-agnostic framework is proposed here. This framework is instantiated to address explanation problems in the context of ML image classification systems, without relying on pixel relevance maps and other low-level features of the input. More specifically, one obtains sets of middle-level properties of classification inputs that are perceptually salient by applying sparse dictionary learning techniques. These middle-level properties are used as building blocks for explanations of image classifications. The achieved explanations are parsimonious, for their reliance on a limited set of middle-level image properties. And they can be contrastive, because the set of middle-level image properties can be used to explain why the system advanced the proposed classification over other antagonist classifications. In view of its model-agnostic character, the proposed framework is adaptable to a variety of other ML systems and explanation problems.

中文翻译:

用稀疏字典方法解释分类系统的中级特征

机器学习 (ML) 系统受到普遍缺乏透明度的影响。可解释人工智能 (XAI) 研究领域解决了这个问题以及以人类可以理解的方式解释 ML 系统行为的相关问题。在 XAI 方法的许多解释中,ML 系统的输出是根据其输入的低级特征来解释的。然而,这些方法给人类用户留下了实质性的解释负担,因为后者需要将低级属性映射到输入的更显着和更容易理解的部分。为了减轻这种认知负担,这里提出了另一种与模型无关的框架。该框架被实例化以解决 ML 图像分类系统上下文中的解释问题,不依赖于像素相关图和输入的其他低级特征。更具体地说,人们通过应用稀疏字典学习技术获得感知上显着的分类输入的中级属性集。这些中级属性被用作解释图像分类的构建块。所实现的解释是简洁的,因为它们依赖于一组有限的中级图像属性。并且它们可以是对比的,因为中级图像属性集可以用来解释为什么系统将提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。一个人通过应用稀疏字典学习技术获得感知上显着的分类输入的中级属性集。这些中级属性被用作解释图像分类的构建块。所实现的解释是简洁的,因为它们依赖于一组有限的中级图像属性。并且它们可以是对比的,因为中级图像属性集可以用来解释为什么系统将提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。一个人通过应用稀疏字典学习技术获得感知上显着的分类输入的中级属性集。这些中级属性被用作解释图像分类的构建块。所实现的解释是简洁的,因为它们依赖于一组有限的中级图像属性。并且它们可以是对比的,因为中级图像属性集可以用来解释为什么系统将提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。这些中级属性被用作解释图像分类的构建块。所实现的解释是简洁的,因为它们依赖于一组有限的中级图像属性。并且它们可以是对比的,因为中级图像属性集可以用来解释为什么系统将提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。这些中级属性被用作解释图像分类的构建块。所实现的解释是简洁的,因为它们依赖于一组有限的中级图像属性。并且它们可以是对比的,因为中级图像属性集可以用来解释为什么系统将提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。因为这组中级图像属性可以用来解释为什么系统将所提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。因为这组中级图像属性可以用来解释为什么系统将所提出的分类比其他拮抗分类先进。鉴于其与模型无关的特性,所提出的框架适用于各种其他 ML 系统和解释问题。
更新日期:2020-07-30
down
wechat
bug