时尚推荐的序列大语言模型框架

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

传统推荐系统依赖共享嵌入空间,序列模型如RNN和Transformer在序列推荐中表现出色。研究人员探索使用大型语言模型(LLMs)进行序列推荐。CALRec是一个两阶段的LLM微调框架,结合对比损失和语言建模损失。首先在多个领域数据上微调,然后在目标领域微调。实验显示,该模型在Recall@1和NDCG@10上优于其他方法,两个微调阶段结合效果最佳。

🎯

关键要点

  • 传统推荐系统依赖共享的稠密嵌入空间来表示物品和用户偏好。
  • 序列模型如RNN、GRU和Transformer在序列推荐任务中表现出色。
  • 研究人员开始探索使用大型语言模型(LLMs)进行序列推荐。
  • CALRec是一个两阶段的LLM微调框架,结合对比损失和语言建模损失。
  • 首先在多个领域的数据上微调LLM,然后进行目标领域的微调。
  • 实验结果显示,CALRec在Recall@1上增长37%,在NDCG@10上增长24%。
  • 两个微调阶段都是至关重要的,结合时可以获得更好的性能。
  • 目标领域中的对比对齐在实验中是有效的。
➡️

继续阅读