研究人员提出了CALRec,一个两阶段的LLM微调框架,通过两种对比损失和语言建模损失在两个塔式结构中微调预训练的LLM。CALRec模型在Recall@1和NDCG@10上的性能优于其他方法。
研究人员提出了CALRec,一个两阶段的LLM微调框架,通过两种对比损失和语言建模损失在两个塔式结构中微调预训练的LLM。实验证明,该模型在Recall@1和NDCG@10上的性能显著优于其他方法。
完成下面两步后,将自动完成登录并继续当前操作。