当前位置: X-MOL 学术Ethics and Information Technology › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Applying a principle of explicability to AI research in Africa: should we do it?
Ethics and Information Technology ( IF 3.633 ) Pub Date : 2020-05-11 , DOI: 10.1007/s10676-020-09534-2
Mary Carman , Benjamin Rosman

Developing and implementing artificial intelligence (AI) systems in an ethical manner faces several challenges specific to the kind of technology at hand, including ensuring that decision-making systems making use of machine learning are just, fair, and intelligible, and are aligned with our human values. Given that values vary across cultures, an additional ethical challenge is to ensure that these AI systems are not developed according to some unquestioned but questionable assumption of universal norms but are in fact compatible with the societies in which they operate. This is particularly pertinent for AI research and implementation across Africa, a ground where AI systems are and will be used but also a place with a history of imposition of outside values. In this paper, we thus critically examine one proposal for ensuring that decision-making systems are just, fair, and intelligible—that we adopt a principle of explicability to generate specific recommendations—to assess whether the principle should be adopted in an African research context. We argue that a principle of explicability not only can contribute to responsible and thoughtful development of AI that is sensitive to African interests and values, but can also advance tackling some of the computational challenges in machine learning research. In this way, the motivation for ensuring that a machine learning-based system is just, fair, and intelligible is not only to meet ethical requirements, but also to make effective progress in the field itself.



中文翻译:

将可解释性原则应用于非洲的人工智能研究:我们应该这样做吗?

以合乎道德的方式开发和实施人工智能 (AI) 系统面临着针对手头技术类型的若干挑战,包括确保使用机器学习的决策系统公正、公平和可理解,并符合我们的要求。人类价值观。鉴于价值观因文化而异,一个额外的道德挑战是确保这些人工智能系统不是根据一些毫无疑问但有问题的普遍规范假设开发的,但实际上与它们运营的社会兼容。这与整个非洲的人工智能研究和实施尤其相关,这是一个人工智能系统被使用和将被使用的地方,也是一个有着强加外部价值观的历史的地方。在本文中,因此,我们批判性地审查了一项确保决策系统公正、公平和可理解的提案——我们采用可解释性原则来生成具体建议——以评估是否应在非洲研究背景下采用该原则。我们认为,可解释性原则不仅可以促进对非洲利益和价值观敏感的人工智能的负责任和深思熟虑的发展,而且还可以推动解决机器学习研究中的一些计算挑战。这样,确保基于机器学习的系统公正、公平和可理解的动机不仅是为了满足道德要求,而且是为了在该领域本身取得有效进展。并且可以理解——我们采用可解释性原则来生成具体建议——以评估是否应在非洲研究背景下采用该原则。我们认为,可解释性原则不仅可以促进对非洲利益和价值观敏感的人工智能的负责任和深思熟虑的发展,而且还可以推动解决机器学习研究中的一些计算挑战。这样,确保基于机器学习的系统公正、公平和可理解的动机不仅是为了满足道德要求,而且是为了在该领域本身取得有效进展。并且可以理解——我们采用可解释性原则来生成具体建议——以评估是否应在非洲研究背景下采用该原则。我们认为,可解释性原则不仅可以促进对非洲利益和价值观敏感的人工智能的负责任和深思熟虑的发展,而且还可以推动解决机器学习研究中的一些计算挑战。这样,确保基于机器学习的系统公正、公平和可理解的动机不仅是为了满足道德要求,而且是为了在该领域本身取得有效进展。我们认为,可解释性原则不仅可以促进对非洲利益和价值观敏感的人工智能的负责任和深思熟虑的发展,而且还可以推动解决机器学习研究中的一些计算挑战。这样,确保基于机器学习的系统公正、公平和可理解的动机不仅是为了满足道德要求,而且是为了在该领域本身取得有效进展。我们认为,可解释性原则不仅可以促进对非洲利益和价值观敏感的人工智能的负责任和深思熟虑的发展,而且还可以推动解决机器学习研究中的一些计算挑战。这样,确保基于机器学习的系统公正、公平和可理解的动机不仅是为了满足道德要求,而且是为了在该领域本身取得有效进展。

更新日期:2020-05-11
down
wechat
bug