大型语言模型能理解符号图形程序吗?
原文中文,约500字,阅读约需2分钟。发表于: 。本研究解决了大型语言模型(LLMs)在理解符号图形程序方面的能力评估问题。这项研究提出了一种新方法,通过构建一个大型基准评估LLMs的语义理解能力,并发现LMS在处理视觉场景推理上存在显著差异。最后,引入符号指令微调(SIT)来提升模型的理解能力和指令跟从能力。
人的推理可以理解为直觉、联想的“系统1”和理性、逻辑的“系统2”之间的协作。为了提高解释性、泛化性和数据效率,研究人员提出了一个新的符号系统,利用大型语言模型的进展作为近似。通过模糊逻辑计算的规则推理出活动的语义。该方法在广泛的活动理解任务中显示了优越性。