当前位置: X-MOL 学术arXiv.cs.AI › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Understanding the Effects of Adversarial Personalized Ranking Optimization Method on Recommendation Quality
arXiv - CS - Artificial Intelligence Pub Date : 2021-07-29 , DOI: arxiv-2107.13876
Vito Walter Anelli, Yashar Deldjoo, Tommaso Di Noia, Felice Antonio Merra

Recommender systems (RSs) employ user-item feedback, e.g., ratings, to match customers to personalized lists of products. Approaches to top-k recommendation mainly rely on Learning-To-Rank algorithms and, among them, the most widely adopted is Bayesian Personalized Ranking (BPR), which bases on a pair-wise optimization approach. Recently, BPR has been found vulnerable against adversarial perturbations of its model parameters. Adversarial Personalized Ranking (APR) mitigates this issue by robustifying BPR via an adversarial training procedure. The empirical improvements of APR's accuracy performance on BPR have led to its wide use in several recommender models. However, a key overlooked aspect has been the beyond-accuracy performance of APR, i.e., novelty, coverage, and amplification of popularity bias, considering that recent results suggest that BPR, the building block of APR, is sensitive to the intensification of biases and reduction of recommendation novelty. In this work, we model the learning characteristics of the BPR and APR optimization frameworks to give mathematical evidence that, when the feedback data have a tailed distribution, APR amplifies the popularity bias more than BPR due to an unbalanced number of received positive updates from short-head items. Using matrix factorization (MF), we empirically validate the theoretical results by performing preliminary experiments on two public datasets to compare BPR-MF and APR-MF performance on accuracy and beyond-accuracy metrics. The experimental results consistently show the degradation of novelty and coverage measures and a worrying amplification of bias.

中文翻译:

了解对抗性个性化排名优化方法对推荐质量的影响

推荐系统 (RS) 使用用户项目反馈(例如评级)来将客户与个性化的产品列表进行匹配。top-k 推荐的方法主要依赖于 Learning-To-Rank 算法,其中应用最广泛的是基于成对优化方法的贝叶斯个性化排名 (BPR)。最近,人们发现 BPR 容易受到模型参数的对抗性扰动的影响。对抗性个性化排名 (APR) 通过对抗性训练程序增强 BPR 来缓解这个问题。APR 在 BPR 上的准确性性能的经验改进导致其在多个推荐模型中得到广泛使用。然而,一个被忽视的关键方面是 APR 的超准确性能,即新颖性、覆盖率和流行偏见的放大,考虑到最近的结果表明 BPR,APR 的组成部分,对偏见的加剧和推荐新颖性的减少很敏感。在这项工作中,我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有拖尾分布时,由于从短时间接收到的正更新数量不平衡,APR 比 BPR 放大了流行度偏差。 - 头项目。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。APR 的组成部分,对偏见的加剧和推荐新颖性的减少很敏感。在这项工作中,我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有拖尾分布时,由于从短时间接收到的正更新数量不平衡,APR 比 BPR 放大了流行度偏差。 - 头项目。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。APR 的组成部分,对偏见的加剧和推荐新颖性的减少很敏感。在这项工作中,我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有拖尾分布时,由于从短时间接收到的正更新数量不平衡,APR 比 BPR 放大了流行度偏差。 - 头项目。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。对偏见的加剧和推荐新颖性的减少很敏感。在这项工作中,我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有拖尾分布时,由于从短时间接收到的正更新数量不平衡,APR 比 BPR 放大了流行度偏差。 - 头项目。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。对偏见的加剧和推荐新颖性的减少很敏感。在这项工作中,我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有拖尾分布时,由于从短时间接收到的正更新数量不平衡,APR 比 BPR 放大了流行度偏差。 - 头项目。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有尾部分布时,由于从短头项目收到的积极更新数量不平衡,APR 比 BPR 放大了流行度偏差。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。我们对 BPR 和 APR 优化框架的学习特征进行建模,以提供数学证据表明,当反馈数据具有尾部分布时,由于从短头项目收到的积极更新数量不平衡,APR 比 BPR 放大了流行度偏差。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。使用矩阵分解 (MF),我们通过在两个公共数据集上进行初步实验来比较 BPR-MF 和 APR-MF 在准确性和超出准确性指标方面的性能,从而凭经验验证理论结果。实验结果始终显示新颖性和覆盖率措施的下降以及令人担忧的偏差放大。
更新日期:2021-07-30
down
wechat
bug