本文总结了一个研究,提出了一种新的可解释主动学习(XAL)框架,结合模型不确定性与解释生成,以提升低资源文本分类的效果。
该研究提出了一种名为FOLK的方法,使用大型语言模型进行声明验证和解释生成,无需人工标注证据。该方法将声明转化为一阶逻辑子句,并利用知识基础的问答对进行推理,做出真实性预测并生成解释,具有高度解释性。实验结果表明,FOLK在三个数据集上优于强基线模型。
本文介绍了一种强化学习中的奖励工程方法,用于解决有监督微调的局限性,并提供了多种奖励聚合方法的详细讨论。作者指出强化学习在未来研究中的潜在潜力,并提出了两种半结构化解释生成基准的奖励取得了新的最先进结果。
本研究提出了一种结合知识图谱和协同过滤技术的个性化推荐解释生成方法,实验结果显示其在自然语言可解释推荐方面优于现有模型。
完成下面两步后,将自动完成登录并继续当前操作。