本研究开发了30种反事实场景,收集了206位受访者的评分,并提出了一种新评估方法。经过微调的大型语言模型在预测人类评分的准确率达到85%,提升了反事实解释框架的评估可比性和可扩展性。
该研究探讨了大型语言模型在因果推理中的解释性和可靠性,提出通过“do-operators”构建反事实场景。实验结果表明,模型的推理能力依赖于上下文和领域知识,缺乏知识时仍能通过数值数据推理,但存在一定限制。
完成下面两步后,将自动完成登录并继续当前操作。