当前位置: X-MOL 学术arXiv.cs.IR › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Modeling and Counteracting Exposure Bias in Recommender Systems
arXiv - CS - Information Retrieval Pub Date : 2020-01-01 , DOI: arxiv-2001.04832
Sami Khenissi and Olfa Nasraoui

What we discover and see online, and consequently our opinions and decisions, are becoming increasingly affected by automated machine learned predictions. Similarly, the predictive accuracy of learning machines heavily depends on the feedback data that we provide them. This mutual influence can lead to closed-loop interactions that may cause unknown biases which can be exacerbated after several iterations of machine learning predictions and user feedback. Machine-caused biases risk leading to undesirable social effects ranging from polarization to unfairness and filter bubbles. In this paper, we study the bias inherent in widely used recommendation strategies such as matrix factorization. Then we model the exposure that is borne from the interaction between the user and the recommender system and propose new debiasing strategies for these systems. Finally, we try to mitigate the recommendation system bias by engineering solutions for several state of the art recommender system models. Our results show that recommender systems are biased and depend on the prior exposure of the user. We also show that the studied bias iteratively decreases diversity in the output recommendations. Our debiasing method demonstrates the need for alternative recommendation strategies that take into account the exposure process in order to reduce bias. Our research findings show the importance of understanding the nature of and dealing with bias in machine learning models such as recommender systems that interact directly with humans, and are thus causing an increasing influence on human discovery and decision making

中文翻译:

推荐系统中的建模和抵消曝光偏差

我们在网上发现和看到的东西,以及我们的意见和决定,正越来越受到自动化机器学习预测的影响。同样,学习机器的预测准确性在很大程度上取决于我们提供给它们的反馈数据。这种相互影响可能导致闭环交互,这可能会导致未知偏差,在机器学习预测和用户反馈的几次迭代之后,这种偏差可能会加剧。机器造成的偏见有可能导致不良的社会影响,从两极分化到不公平和过滤泡沫。在本文中,我们研究了广泛使用的推荐策略(例如矩阵分解)中固有的偏差。然后我们对用户和推荐系统之间的交互产生的曝光进行建模,并为这些系统提出新的去偏差策略。最后,我们尝试通过为几种最先进的推荐系统模型设计解决方案来减轻推荐系统偏差。我们的结果表明,推荐系统是有偏见的,并且依赖于用户的先前曝光。我们还表明,研究的偏差迭代地降低了输出推荐的多样性。我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们试图通过为几种最先进的推荐系统模型设计解决方案来减轻推荐系统的偏见。我们的结果表明,推荐系统是有偏见的,并且依赖于用户的先前曝光。我们还表明,研究的偏差迭代地降低了输出推荐的多样性。我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们试图通过为几种最先进的推荐系统模型设计解决方案来减轻推荐系统的偏见。我们的结果表明,推荐系统是有偏见的,并且依赖于用户的先前曝光。我们还表明,研究的偏差迭代地降低了输出推荐的多样性。我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们的结果表明,推荐系统是有偏见的,并且依赖于用户的先前曝光。我们还表明,研究的偏差迭代地降低了输出推荐的多样性。我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们的结果表明,推荐系统是有偏见的,并且依赖于用户的先前曝光。我们还表明,研究的偏差迭代地降低了输出推荐的多样性。我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响 我们的去偏差方法表明需要考虑到暴露过程以减少偏差的替代推荐策略。我们的研究结果表明,了解机器学习模型(例如直接与人类交互的推荐系统)中偏差的性质和处理偏差的重要性,从而对人类发现和决策产生越来越大的影响
更新日期:2020-01-15
down
wechat
bug