回到未来:面向大型语言模型的可解释性时间推理
原文中文,约300字,阅读约需1分钟。发表于: 。本文提出了解释性时间推理的首个任务,即通过对多个事件进行多步骤的时间推理和对未来时间戳的预测,预测事件在未来时间戳上的发生,并提供清晰的解释。我们基于多源指导调整数据集和知识图谱生成策略,提出了第一个支持解释性时间推理的开源 LLM 系列 TimeLlaMA,该方法在时间预测和解释方面取得了最先进的性能。
该研究介绍了一种名为TODAY的任务,旨在通过评估模型能否正确理解渐进变化的影响,来进行时间推理的迁移学习。研究发现当前的模型更多地依赖虚假信息而非恰当的推理来进行时间预测,并证明了TODAY的监督风格和解释注释可以用于联合学习,以鼓励模型在训练期间使用更适当的信号,并在多个基准测试中实现优异性能。