当前位置: X-MOL 学术ACM Comput. Surv. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
A Survey on Bias and Fairness in Machine Learning
ACM Computing Surveys ( IF 16.6 ) Pub Date : 2021-07-13 , DOI: 10.1145/3457607
Ninareh Mehrabi 1 , Fred Morstatter 1 , Nripsuta Saxena 1 , Kristina Lerman 1 , Aram Galstyan 1
Affiliation  

With the widespread use of artificial intelligence (AI) systems and applications in our everyday lives, accounting for fairness has gained significant importance in designing and engineering of such systems. AI systems can be used in many sensitive environments to make important and life-changing decisions; thus, it is crucial to ensure that these decisions do not reflect discriminatory behavior toward certain groups or populations. More recently some work has been developed in traditional machine learning and deep learning that address such challenges in different subdomains. With the commercialization of these systems, researchers are becoming more aware of the biases that these applications can contain and are attempting to address them. In this survey, we investigated different real-world applications that have shown biases in various ways, and we listed different sources of biases that can affect AI applications. We then created a taxonomy for fairness definitions that machine learning researchers have defined to avoid the existing bias in AI systems. In addition to that, we examined different domains and subdomains in AI showing what researchers have observed with regard to unfair outcomes in the state-of-the-art methods and ways they have tried to address them. There are still many future directions and solutions that can be taken to mitigate the problem of bias in AI systems. We are hoping that this survey will motivate researchers to tackle these issues in the near future by observing existing work in their respective fields.

中文翻译:

机器学习中的偏见和公平性调查

随着人工智能 (AI) 系统和应用在我们日常生活中的广泛使用,考虑公平性在此类系统的设计和工程中变得非常重要。人工智能系统可用于许多敏感环境中,以做出重要且改变生活的决定;因此,确保这些决定不反映对某些群体或人群的歧视性行为至关重要。最近,在传统机器学习和深度学习方面开展了一些工作,以解决不同子领域中的此类挑战。随着这些系统的商业化,研究人员越来越意识到这些应用程序可能包含的偏见并试图解决这些偏见。在本次调查中,我们调查了不同的现实世界应用程序,这些应用程序以各种方式显示出偏见,我们列出了可能影响 AI 应用程序的不同偏差来源。然后,我们为机器学习研究人员定义的公平定义创建了一个分类法,以避免 AI 系统中存在的偏见。除此之外,我们还检查了 AI 中的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平结果以及他们试图解决这些问题的方式。未来仍有许多方向和解决方案可以用来缓解 AI 系统中的偏见问题。我们希望这项调查能够激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。然后,我们为机器学习研究人员定义的公平定义创建了一个分类法,以避免 AI 系统中存在的偏见。除此之外,我们还检查了 AI 中的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平结果以及他们试图解决这些问题的方式。未来仍有许多方向和解决方案可以用来缓解 AI 系统中的偏见问题。我们希望这项调查能够激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。然后,我们为机器学习研究人员定义的公平定义创建了一个分类法,以避免 AI 系统中存在的偏见。除此之外,我们还检查了 AI 中的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平结果以及他们试图解决这些问题的方式。未来仍有许多方向和解决方案可以用来缓解 AI 系统中的偏见问题。我们希望这项调查能够激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。我们检查了 AI 中的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平结果以及他们试图解决这些问题的方式。未来仍有许多方向和解决方案可以用来缓解 AI 系统中的偏见问题。我们希望这项调查能够激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。我们检查了 AI 中的不同领域和子领域,展示了研究人员在最先进的方法中观察到的不公平结果以及他们试图解决这些问题的方式。未来仍有许多方向和解决方案可以用来缓解 AI 系统中的偏见问题。我们希望这项调查能够激励研究人员在不久的将来通过观察各自领域的现有工作来解决这些问题。
更新日期:2021-07-13
down
wechat
bug