推荐系统通用用户表征预训练研究进展

阿泽的学习笔记

共 4526字,需浏览 10分钟

 ·

2021-11-30 16:11



随着NLP和CV领域的发展,涌现出了以BERT,GPT为代表的大规模语言模型和以ImageNet为代表的各种经典视觉模型,如resnet和visual transformer,在各自领域都产生了很大的成功,而且实现了通用语言/视觉表征能力,例如BERT学好的语言表征可以被应用到各种各样的下游任务。受到相关技术的启发,推荐系统最近两年也出现了一些学习用户通用表征的算法和深度模型,也就是,通过对用户行为进行某种程度预训练,然后adapt到一些下游任务中,这些下游任务包括,跨域推荐和用户画像预测,本文简要介绍几种代表性工作, 优先并重点介绍了有代码和数据集的论文,以便大家更好的follow。本帖子参考了一些相关技术帖。

Parameter-Efficient Transfer from Sequential Behaviors for User Modeling and Recommendation. SIGIR2020

作者来自腾讯和谷歌

代码+数据集:https://github.com/fajieyuan/SIGIR2020_peterrec

本文提出一种名为PeterRec的通用表征迁移学习算法,论文指出,受到以上NLP和CV领域自监督+预训练的启发,作者也尝试了对用户点击行为进行自监督建模,以寻求学到通用的用户偏好表征,论文提出了5个与用户相关的下游任务去评测学到用户表征能力,其中包括跨域迁移学习,也就是在冷用户推荐的场景,通过借助其他domain的用户行为获取偏好,另外,本文一个发现是这种自监督学习的用户表征不仅仅可以做推荐任务,同时可以去预测用户的基础画像和更高层次的用户属性信息,作者展示了预训练用户表征在迁移到用户年龄,画像预测和人生状态预测(如,单身、已婚)的有效性,论文的ablation study展示了通过pretraining可以获得较明显的性能提升。该论文的一个贡献是建立了推荐系统和NLP、CV领域的桥梁,也是通用用户表征比较早期的做法,对后续工作很有启发,同时,作者也发布了一套开源代码和数据集(短视频场景),可以用于预训练、迁移学习、表征学习、画像预测等重要的推荐系统任务。

One Person, One Model, One World: Learning Continual User Representation without Forgetting. SIGIR2021.

作者来自腾讯和谷歌

代码+数据集:https://github.com/fajieyuan/SIGIR2021_Conure

本文作者沿着PeterRec思想,仍然是探究用户通用表征能力和迁移效果,论文一个重要的贡献是提出通用用户表征的终生学习(lifelong learning)机制,不同于以往的工作,学习一个更长的用户行为序列,然后将其应用于该推荐系统,本文的通用表征着手在多个不同的推荐业务场景中进行表征持续学习,论文预训练与PeterRec一样,也就是autoregressive的方式,不同于PeterRec工作,本文不仅可以实现one4all思想,而且终生学习在后续的任务中展示出正向的迁移效果,论文的方法比较简单,采用常规的pruning技术,移除任务中冗余参数,这部分模型空间用于学习新任务,这种策略在NLP和CV领域非常常见,尤其是各种模型压缩,加速等场景,论文主要是提出了一个重要的问题就是实现用户表征的可持续终生学习。


Arxiv第一个版本给出了几种迁移学习范式的比较

Perceive Your Users in Depth: Learning Universal User Representations from Multiple E-commerce Tasks. KDD2018.

作者来自Alibaba团队。

Github上暂未找到代码和数据集。

粗略调查,本文应该是提出通用用户表征学习最早期工作了,主要是阿里巴巴电商场景,建模的backbone是LSTM模型,提出了一种DUPN的模型。论文motivation指出很多已有的工作都是针对单个推荐任务场景建模,而如果能够考虑多个业务目标,有希望获取更好的推荐效果,论文的重要技术点是采用多任务多目标学习的方式,通过model用户的各种行为,包括CTR目标,L2R目标,PPP目标,FIFP目标和SPP目标,集成多个目标理论上能够学到更好的用户表征,但是多个目标如何有效的平衡损失函数和干扰也是很重要的,对算法人员驾驭能力要求较高,任何一个loss如果权重设置不合适都有可能造成次优,甚至是有hurt的效果,另外,学术界也比较缺少这种实际的业务数据(各种用户点击交互行为),对于后续的学习会有一些barrier。关于表征的迁移效果,论文做了一些ablation study主要是关于推荐系统场景。

One4all User Representation for Recommender Systems in E-commerce. 2021年arxiv

论文显示暂未接受,作者来自NAVER CLOVA
Github上未找到代码和数据集。但是论文在结尾提到会发布这样一套超大规模的数据集,相信发布后对推荐系统领域会有比较大的推动作用。

论文动机也是认为学习general-purpose的表征能力在机器学习社区已经取得了很大的成功,同时指出在电商场景下,学习one4all的表征,可以用来做很多下游任务,例如用户画像预测、推送和推荐系统。为此,作者们系统的比较了电商场景下通用用户表征的建模方式和迁移效果,提出ShopperBERT模型,论文数据规模相当庞大,达到8亿点击行为(PeterRec数据接近1亿的行为),论文结果展示出预训练在多个下游任务上可以取得SOTA效果,该论文比较精彩的地方是做了非常广泛的分析实验,很有参考价值。

TUM: Pre-training User Model from Unlabeled User Behaviors via Self-supervision. 2020.findings EMNLP

作者来自清华和微软

代码:https://github.com/wuch15/PTUM

用户专注用户建模任务,指出传统的用户建模需要label数据,然而,推荐系统大量的用户行为可以用来建立自监督学习机制,论文提出mask行为预测和next K行为预测学习用户表征模型,类似的,作者也是在下游任务(包括CTR预测和画像预测)中检测了表征的迁移能力,论文来自一个搜索引擎,具体不详。

UPRec: User-Aware Pre-training for Recommender Systems. TKDE2021投稿

作者来自清华和腾讯
Github暂未发现code
本文作者指出已有的序列建模技术往往受制于sparse的用户行为数据,为了解决这个问题,作者们提出预训练机制,但是已有的用户行为预训练技术只使用了用户行为序列,缺少异构用户信息,本文我们提出了基于异构用户行为的预训练模型,称作UPRec,论文展示了这种预训练机制的有效性,作者借鉴已有工作,也做了用户性别的画像预测

User-specific Adaptive Fine-tuning for Cross-domain Recommendations. TKDE2021,

作者来自中科院

暂未找到代码

本文作者动机与以上几篇论文类似,也是想尝试通过迁移学习解决用户冷启动问题,但是不同以上文章,论文提出了一种personalized微调方式,针对不同的用户采用不同的policy微调机制,作者强调pre-training的残差块不一定需要微调,有些用户的兴趣偏好(尤其是行为比较少的用户)可能会跟pre-training场景更加相似,那么这种情况大可不需要微调,直接使用pretraining自带的残差块即可。论文通过强化学习手段实现user-specific微调技术。效果展示出这种自适应微调效果好于常规的各种finetune技术。

Scaling Law for Recommendation Models: Towards General-purpose User Representations.

最新arxiv论文,与(4)相同作者,来自NAVER CLOVA;Github上暂未找到代码和数据集。

动机就不多说了,还是general-purpose用户表征的迁移学习,不过个人感觉这篇论文写的非常漂亮,阅读起来感觉也是非常舒服,论文主要关注scale效果,大有效仿GPT的感觉,论文提出CLUE算法,基于最新的比较学习(contrastive learning),多目标学习用户表征,然后探索表征的迁移能力,论文用到的用户行为达到惊人的500亿(七个下游任务),是PeterRec训练样本的大概500倍,ShopperBERT的60倍以上,有望成为推荐系统领域大模型预训练的里程碑工作。

Learning Transferable User Representations with Sequential Behaviors via Contrastive Pre-training.ICDM2021

作者主要来自中科大, 暂未找到代码。

动机不多提了,很有意思的一点,这篇论文的名字也叫CLUE,与(8)相同,好像NLP里面也有这个名字,论文也是探索性质,指出PeterRec这种基于item level的训练方式容易破坏用户表征,或者是一种次优的表征,既然是用户表征就应该基于user level,对用户行为直接做比较学习,论文尝试了常见的显式数据提升方式和隐式的dropout方式,证实方法的有效性。

Learning Universal User Representations via Self-Supervised Lifelong Behaviors Modeling. 投稿ICLR2022,

作者来自阿里巴巴,暂未找到代码和数据。

该论文也是提出了一种通用的用户表征终生学习机制,起名LURM,LURM包含了几个重要的组件(BoI和SMEN),通过比较学习学习用户通用表征能力,论文提出了首个具有建模lifelong行为序列的通用表征算法,论文还没读完,看起来比较干,论文呈现比较浓厚的阿里风格。不过看openreview审稿意见,论文本次被ICLR2022接受概率可能不太大,被指出实验部分缺少一些近期相关baselines的比较(如PTUM和PeterRec),其他评论意见不在此罗列,感兴趣的也可以参考openreview官网学习。整体上讲,论文水平感觉还是挺不错的,做了一些有意义的探索,值得学习。

喜欢的话点个在看吧👇
浏览 69
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报