通过多角度反思和迭代增强序列推荐
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
研究人员提出了CALRec,一个两阶段的LLM微调框架,通过两种对比损失和语言建模损失在两个塔式结构中微调预训练的LLM。CALRec模型在Recall@1和NDCG@10上的性能优于其他方法。
🎯
关键要点
- 传统推荐系统依赖于学习共享的稠密嵌入空间来表示物品和用户偏好。
- 序列模型如RNN、GRU和Transformer在序列推荐任务中表现出色。
- 研究人员开始探索使用预训练的大型语言模型(LLMs)进行序列推荐。
- CALRec是一个两阶段的LLM微调框架,使用两种对比损失和语言建模损失。
- CALRec模型在多个领域的数据混合上微调LLM,然后进行目标领域的微调。
- CALRec模型在Recall@1上增长37%,在NDCG@10上增长24%,显著优于其他方法。
- 消融研究表明两个微调阶段都是至关重要的,结合时性能更好。
- 目标领域中的对比对齐在实验中是有效的。
➡️