本研究提出了一种新方法CG2C,通过提取文档上下文图进行多跳推理,解决了传统自然语言推断数据不足的问题。实验结果表明,FactCG模型在连接推理方面表现优越,且模型规模更小。
本研究提出了一种新的联合模型,结合上下文化语言模型与神经网络,针对越南语自然语言推断(NLI)进行研究,F1得分最高达到82.78%。
本研究针对多源无监督领域适应中的源域选择复杂性问题,提出了渐进微调框架和三种轻量级图路由策略,从而提高了自然语言推断和情感分析任务的准确率。
该论文研究了自然语言推断数据的微调潜力,以提高信息检索和排名的效果,并通过使用来自波兰最大的电子商务网站和选定的开放领域数据,对英语和波兰语进行了验证。结果显示,使用对比损失和 NLI 数据进行微调可以提高模型在不同任务和语言方面的性能,并且有潜力改善单语和多语模型。最后,研究了嵌入向量的一致性和对齐性,以解释基于 NLI 的微调在域外应用中的效果。
该研究探讨了外部知识对自然语言推断系统性能的影响,发现不同来源的知识影响不同。同时,进行了最大规模、最精细的可解释NLI众包研究,揭示了自动性能分数与人的评分存在巨大差异。
本文提出了一种新的激活函数——稀疏最大函数,能够输出稀疏概率,并给出了其特性及雅可比矩阵的高效计算方法。同时,提出了一个新的平滑且凸函数作为逻辑损失的稀疏最大函数的对应,并发现它与 Huber 分类损失之间的联系。实验结果表明,在多标签分类和自然语言推断的基于注意力机制的神经网络中,采用稀疏最大函数可以获得类似的性能,但具有更精细、更紧凑的注意力焦点。
完成下面两步后,将自动完成登录并继续当前操作。