KuaiFormer – 快手推出的检索框架,基于Transformer | AI工具集

AI工具2个月前发布 杨海雄
3 0


KuaiFormer是什么

KuaiFormer是快手技术团队推出的基于Transformer的检索框架,用在大规模内容推荐系统。基于重新定义检索流程,从传统的分数估计任务转变为Transformer驱动的“下一个动作预测”范式,有效进行实时兴趣获取和多兴趣提取,显著提升检索性能。KuaiFormer用多兴趣查询Token、自适应序列压缩机制,实现在亿级候选集上的稳定训练。已在2024 年 5 月集成到快手 App 的短视频推荐系统,为超过4亿日活用户提供服务,显著增加用户日均使用时长。
KuaiFormer - 快手推出的检索框架,基于Transformer | AI工具集

KuaiFormer的主要功能

  • 多兴趣提取:引入多个查询Token捕捉用户的多样化兴趣,模型能更好地理解和预测用户的复杂兴趣。
  • 自适应序列压缩:为提高长序列建模的效率,KuaiFormer设计自适应序列压缩机制,基于压缩早期观看的视频序列减少输入序列长度,保留最新的视频信息。
  • 稳定训练技术:KuaiFormer用一种定制的softmax学习目标和LogQ校正方法,稳定地训练模型,在面对亿级候选集时能保持性能。
  • 实时推荐:实时响应用户的请求,从数十亿的选项中快速选出与用户实时兴趣相关的候选项目。

KuaiFormer的技术原理

  • Transformer架构:基于自注意力机制捕捉用户行为序列中的复杂依赖关系。
  • Next Action Prediction:KuaiFormer将检索过程转变为预测用户的下一个动作,有助于更准确地捕捉用户的实时兴趣。
  • 多兴趣Query Token:受到BERT中[CLS] Token的启发,引入多个可学习的Query Token,结合多兴趣训练策略,从历史项目序列中提取不同的用户兴趣表示。
  • 自适应Item压缩机制:KuaiFormer将早期项目序列分组并压缩,减少输入序列长度,同时对最新项目进行细粒度建模。
  • Smooth In-Batch Softmax Loss:KuaiFormer基于In-Batch Softmax作为学习目标,应用LogQ校正方法纠正采样偏差。

KuaiFormer的项目地址

KuaiFormer的应用场景

  • 短视频推荐:快手App的短视频推荐系统,分析用户的历史观看行为和兴趣,为用户推荐可能感兴趣的新视频。
  • 内容发现:在内容发现方面,帮助用户探索和发现新内容,增加内容的多样性和新颖性,提升用户体验。
  • 个性化推荐:捕捉用户的多维兴趣,提供更加个性化的推荐,满足用户的个性化需求。
  • 实时推荐系统:实时响应用户的行为变化,快速更新推荐列表,适用于需要实时推荐更新的场景。
  • 大规模数据处理:在处理数十亿级别的视频库时,KuaiFormer 的高效率和可扩展性成为大规模数据处理的理想选择。
© 版权声明

© 版权声明

相关文章

暂无评论

暂无评论...