本研究评估了注意力图在决策解释中的有效性,分析了eSNLI语料库中RNN编码器的交叉注意力权重,发现原始注意力权重与可行解释的相关性较弱。
研究发现,无人驾驶汽车提供错误的决策解释会降低乘客的信任和满意度,准确和适应性的解释对提升信任和依赖很重要,为设计可信的AV解释系统提供了指导。
该研究提出了一种名为ShieldLM的安全检测器,基于大型语言模型,支持定制检测规则,并提供决策解释。研究表明,ShieldLM在测试中表现出色,具有可定制性和可解释性。
通过分析NLP模型中的观察段和语义相关的词群,提出了解释性摘要方法的灵活化,并引入了NLP模型的根本原因分析方法。实验证明,利用单词和信息中的组/集群结构可以帮助解释NLP模型的决策,并评估模型对性别、语法和单词含义的敏感性或偏差。
完成下面两步后,将自动完成登录并继续当前操作。