本研究提出一种两阶段框架,整合知识图谱与大语言模型,通过自我监督量化表示方法压缩知识图谱信息。实验结果表明,该方法在链接预测和三元组分类任务中显著优于现有技术。
本研究探讨了利用大型语言模型(LLM)构建知识图的关键问题,提出了知识图LLM(KG-LLM)框架。实验结果表明,该方法在三元组分类和关系预测任务中表现优异,微调小模型(如LLaMA-7B)优于ChatGPT和GPT-4。
本研究利用大型语言模型(LLM)解决知识图的关键问题,通过KG-LLM框架对三元组进行建模,实验表明该方法在三元组分类和关系预测等任务中达到最先进的性能水平。微调相对较小的模型优于最新的ChatGPT和GPT-4。
完成下面两步后,将自动完成登录并继续当前操作。