当前位置: X-MOL 学术arXiv.cs.IR › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Parameter-Efficient Transfer from Sequential Behaviors for User Modeling and Recommendation
arXiv - CS - Information Retrieval Pub Date : 2020-01-13 , DOI: arxiv-2001.04253
Fajie Yuan, Xiangnan He, Alexandros Karatzoglou, Liguang Zhang

Inductive transfer learning has had a big impact on computer vision and NLP domains but has not been used in the area of recommender systems. Even though there has been a large body of research on generating recommendations based on modeling user-item interaction sequences, few of them attempt to represent and transfer these models for serving downstream tasks where only limited data exists. In this paper, we delve on the task of effectively learning a single user representation that can be applied to a diversity of tasks, from cross-domain recommendations to user profile predictions. Fine-tuning a large pre-trained network and adapting it to downstream tasks is an effective way to solve such tasks. However, fine-tuning is parameter inefficient considering that an entire model needs to be re-trained for every new task. To overcome this issue, we develop a parameter efficient transfer learning architecture, termed as PeterRec, which can be configured on-the-fly to various downstream tasks. Specifically, PeterRec allows the pre-trained parameters to remain unaltered during fine-tuning by injecting a series of re-learned neural networks, which are small but as expressive as learning the entire network. We perform extensive experimental ablation to show the effectiveness of the learned user representation in five downstream tasks. Moreover, we show that PeterRec performs efficient transfer learning in multiple domains, where it achieves comparable or sometimes better performance relative to fine-tuning the entire model parameters. Codes and datasets are available at https://github.com/fajieyuan/sigir2020_peterrec.

中文翻译:

用于用户建模和推荐的顺序行为的参数有效传输

归纳迁移学习对计算机视觉和 NLP 领域产生了重大影响,但尚未用于推荐系统领域。尽管已经有大量关于基于建模用户-项目交互序列生成推荐的研究,但很少有人尝试表示和转移这些模型来为仅存在有限数据的下游任务提供服务。在本文中,我们深入研究了有效学习单个用户表示的任务,该表示可以应用于从跨域推荐到用户配置文件预测的各种任务。微调大型预训练网络并使其适应下游任务是解决此类任务的有效方法。然而,考虑到需要为每个新任务重新训练整个模型,微调参数效率低下。为了克服这个问题,我们开发了一个参数高效的迁移学习架构,称为 PeterRec,它可以即时配置到各种下游任务。具体来说,PeterRec 通过注入一系列重新学习的神经网络,允许预训练的参数在微调期间保持不变,这些神经网络很小,但与学习整个网络一样具有表现力。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。称为 PeterRec,它可以即时配置到各种下游任务。具体来说,PeterRec 通过注入一系列重新学习的神经网络,允许预训练的参数在微调期间保持不变,这些神经网络很小,但与学习整个网络一样具有表现力。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。称为 PeterRec,它可以即时配置到各种下游任务。具体来说,PeterRec 通过注入一系列重新学习的神经网络,允许预训练的参数在微调期间保持不变,这些神经网络很小,但与学习整个网络一样具有表现力。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。PeterRec 通过注入一系列重新学习的神经网络,允许预训练的参数在微调期间保持不变,这些神经网络很小但与学习整个网络一样具有表现力。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。PeterRec 通过注入一系列重新学习的神经网络,允许预训练的参数在微调期间保持不变,这些神经网络很小但与学习整个网络一样具有表现力。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。我们进行了广泛的实验消融,以显示学习的用户表示在五个下游任务中的有效性。此外,我们展示了 PeterRec 在多个领域执行有效的迁移学习,相对于微调整个模型参数,它实现了可比的或有时更好的性能。代码和数据集可在 https://github.com/fajieyuan/sigir2020_peterrec 获得。
更新日期:2020-06-11
down
wechat
bug