Protoknowledge Shapes the Behavior of Large Language Models in Downstream Tasks: Memory and Generalization of Knowledge Graphs

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出“原知识”概念,形式化并测量大型语言模型在预训练期间如何内化知识图谱的令牌序列及其在推理中的应用,分析结果显示其对文本到SPARQL的性能影响。

🎯

关键要点

  • 本研究提出了'原知识'的概念。
  • 研究形式化并测量大型语言模型在预训练期间如何内化知识图谱的令牌序列。
  • 分析了原知识在推理中的应用。
  • 研究结果显示原知识对文本到SPARQL的性能有影响。
  • 为探索语义级数据污染提供了有效的工具。
➡️

继续阅读