在线学习在爱奇艺信息流推荐业务中的探索与实践

概述

爱奇艺的信息流推荐业务每天会产生数十亿规模的feed浏览,如此大规模的数据给模型训练带来了很大的挑战。同时,信息流这类用户与推荐系统的强交互场景也引入了很多有趣的研究课题。对于信息流推荐产品来说,用户和产品交互性高,用户兴趣变化也很快。若模型不能及时更新,排序模型部署上线后,性能会缓慢下降。而对于排序模型来说,如何用较低成本完成百亿样本、千亿参数DNN排序模型的及时更新是需要解决的首要问题。

引入在线学习是解决此类问题的首选方式。在线学习(Online Learning)能捕捉用户的动态行为模式,实现模型的快速自适应,它对数据pipeline的稳定性、流式样本的分布纠偏、模型训练的稳定性以及模型部署的性能都提出了很高的要求,成为提升推荐系统性能的利器。在线学习为爱奇艺多个信息流推荐场景都带来了明显的效果增益,对新内容的分发也起到了明显正向的作用,验证了“唯快不破”的真理。

本文就来介绍一下爱奇艺技术团队我们的相关成功实践。基于学术界和工业界的经验,探索出一套比较适合工业化实践的W&D深度排序模型的在线学习范式,实现了消费流式数据、DNN模型的实时训练和及时更新。

在短视频信息流推荐和图文信息流推荐方面,完成了AB实验和全流量上线,推荐效果和用户体验较之前的离线模型都获得了较大的提升,短视频信息推荐消费指标+1.5%,图文信息流推荐消费指标+3.8%。此外,数据证明在线学习的上线对于新内容的分发有比较明显的助益,也能在新内容上线当天进行快速试探,判别内容的优劣。以图文信息流推荐为例,新Feed的平均分发量增益在10%以上,而且这些feed的点击率也有明显提升。

信息流推荐排序模型目前的挑战

目前,业界主流的信息流个性化推荐的排序模型目前基本都已转向DNN模型,如W&D、DeepFM等,相比以往以GBDT/LR/FM为典型模型的浅层模型来说, 产生了下面几个新的问题:

1. 模型更重

模型的宽度和深度,决定了模型参数空间的规则。DNN模型是多层感知模型。亿级别的ID特征(UserID、ItemId、用户行为序

猜你喜欢

转载自blog.csdn.net/jxq0816/article/details/103429523