本研究提出了一种引导嵌入优化方法,以提高大语言模型在序列推荐中的可解释性和性能。通过增强基础推荐系统的嵌入,该方法显著提升了推荐效果,提升幅度达到10%到50%。
本研究提出了一种新方法SRA-CL,通过语义检索增强对比学习,解决序列推荐中的数据稀疏问题,实验结果在多个数据集上表现优异。
本研究分析了大型语言模型(LLMs)在序列推荐中的局限,提出了新方法LLM-SRec,通过优化用户表示以增强序列信息整合,从而显著提升推荐效果。
本研究提出了一种新的序列推荐预训练框架PRECISE,旨在解决推荐系统在长尾商品和冷启动场景中的不足。该框架结合协同信号和语义信息,有效捕捉用户兴趣并转移到目标场景。实验结果显示,PRECISE在多个数据集上表现优异。
本研究提出了一种新的预训练、对齐与解耦(PAD)范式,有效解决了序列推荐系统在协同数据依赖下的冷启动问题,显著提升了推荐模型的性能。
本研究提出了IDLE-Adapter框架,以解决大型语言模型在序列推荐中缺乏领域知识的问题。实验结果显示,该框架在推荐准确性上优于现有方法,提升幅度超过10%和20%。
本研究提出了IISAN-Versa框架,解决了多模态基础模型在序列推荐系统中的适应性不足问题,提升了文本编码器的性能,推动了推荐系统的研究进展。
本研究提出了一种向量量化元学习方法(MetaRec),旨在提升可转移序列推荐系统的性能。该方法整合多个源领域的用户-物品互动数据,有效解决输入异质性问题,从而显著改善推荐效果。
本研究提出了DDSR模型,以解决传统序列推荐方法无法捕捉用户行为随机性的问题。实验结果表明,DDSR在多个数据集上优于现有方法,验证了其有效性。
本研究提出双条件扩散模型(DCRec),旨在解决序列推荐中的建模不一致和用户行为上下文不足的问题。实验结果表明,DCRec在公共数据集上优于现有方法,具有实际应用潜力。
本文介绍了一种基于图神经网络模型的序列推荐方法SURGE,通过度量学习将松散的物品序列转化为紧密的物品-物品兴趣图,并进行图卷积传播和图池化操作,提取用户历史行为序列的核心兴趣。实验证明该方法在性能和序列长度方面都有显著提升。
该文介绍了一种新的序列推荐策略LANCER,采用预训练语言模型的语义理解能力,在推荐系统中生成更加人性化的个性化推荐。实验证明该方法有效,并提供了有价值的见解。
本文介绍了如何使用大型语言模型(LLMs)来增强推荐系统,包括对话式推荐、序列推荐、评分预测和基于文本嵌入的推荐等。同时,作者还介绍了如何使用LLMs作为推荐模型的侧面特征。
完成下面两步后,将自动完成登录并继续当前操作。