通过多智能体辩论实现忠实可解释的事实核查
原文中文,约400字,阅读约需1分钟。发表于: 。我们的研究调查了大型语言模型生成解释的能力,发现零样本提示通常导致不忠实的结果。为了解决这些挑战,我们提出了多代理辩论修正(MADR)框架,利用多个具有不同角色的大型语言模型作为代理,在迭代的修饰过程中提高了生成解释的忠实性。MADR 确保最终的解释经过严格验证,显著降低了不忠实元素的可能性,并与提供的证据紧密相符。实验证明,MADR...
自动事实核查对于验证虚假信息变得至关重要。大型语言模型(LLMs)如GPT-4可以验证信息并撰写学术论文、诉讼文件和新闻文章。LLMs在配备上下文信息的情况下表现出更强大的能力。然而,LLMs的准确性不一致,需要进一步研究以了解代理人何时成功以及何时失败。