时尚推荐的序列大语言模型框架
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
传统推荐系统依赖共享嵌入空间,序列模型如RNN和Transformer在序列推荐中表现出色。研究人员探索使用大型语言模型(LLMs)进行序列推荐。CALRec是一个两阶段的LLM微调框架,结合对比损失和语言建模损失。首先在多个领域数据上微调,然后在目标领域微调。实验显示,该模型在Recall@1和NDCG@10上优于其他方法,两个微调阶段结合效果最佳。
🎯
关键要点
- 传统推荐系统依赖共享的稠密嵌入空间来表示物品和用户偏好。
- 序列模型如RNN、GRU和Transformer在序列推荐任务中表现出色。
- 研究人员开始探索使用大型语言模型(LLMs)进行序列推荐。
- CALRec是一个两阶段的LLM微调框架,结合对比损失和语言建模损失。
- 首先在多个领域的数据上微调LLM,然后进行目标领域的微调。
- 实验结果显示,CALRec在Recall@1上增长37%,在NDCG@10上增长24%。
- 两个微调阶段都是至关重要的,结合时可以获得更好的性能。
- 目标领域中的对比对齐在实验中是有效的。
➡️