本研究探讨了大型语言模型在情感分析中的模型不确定性与变异性,分析其导致的不一致情感分类问题,并提出缓解策略。强调可解释性在提升透明度和用户信任中的重要性,以推动情感分析在金融、医疗等高风险领域的应用。
本研究分析了反事实推理在复杂环境中的局限性,特别是在高模型不确定性和混沌动态下的影响,强调谨慎使用反事实推理的重要性。
本文总结了一个研究,提出了一种新的可解释主动学习(XAL)框架,结合模型不确定性与解释生成,以提升低资源文本分类的效果。
本研究提出了一种高效的二阶优化方法,针对联邦学习中的模型不确定性和个性化需求,显著提升了预测精度和不确定性估计,优于现有技术。
本研究提出了一种通用的策略梯度方法DRPMD,旨在解决强健马尔可夫决策过程中的模型不确定性问题,确保全局最优性,并在复杂场景中验证其强健性和全局收敛性。
本文研究发现高不确定性模型会导致错误内容增加,提出一种解码策略来减少幻觉,通过在XSum数据集上的实验证明,该方法降低了幻觉的概率。
本研究提出了一种利用模型不确定性的BNN结构学习框架,比普通Bayesian neural networks更稀疏,但精度与竞争模型相当。
该研究提出了HG-DAgger算法,适用于交互式人机模仿学习。该算法训练初学者策略,学习基于模型不确定性的风险度量的安全阈值,以预测状态空间中不同区域的初学者性能。在自动驾驶任务中,该算法表现更好。
本文提出了一种解码策略,通过优化源和目标单词的点间互信息来减少模型不确定性高时的幻觉出现。在 XSum 数据集上进行实验证明,该方法降低了幻觉的概率,同时保持了黄色和 BertS 得分。
本文研究了评分者不一致性对模型不确定性的影响,并比较了UNet和TransUNet在标签融合策略和模型不确定性上的差异。通过多类椎旁肌分割案例,揭示了评分者不一致性与不确定性之间的相互作用。
完成下面两步后,将自动完成登录并继续当前操作。