LLM 作为提示器:在任意知识图上进行低资源归纳推理
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文测试了5种预训练大型语言模型在图形推理问题上的表现,通过10个不同的图形遍历问题,发现了模型的限制和偏见,并提出了一种新的提示技术PathCompare,能显著提高模型性能。
🎯
关键要点
- 预训练大型语言模型展示了基于语言的推理能力。
- 本文测试了5种不同的LLMs在图形推理问题上的表现。
- 设计了10个不同的图形遍历问题,复杂性逐渐增加。
- 分析了模型在不同设置下的性能,包括图形大小和k-shot提示形式。
- 突出了LLMs的限制、偏见和属性,例如节点遍历自由度与性能的反比关系。
- k-shot提示对图形推理任务有整体负面影响。
- 提出了新提示技术PathCompare,显著提高了模型性能。
➡️