本论文探讨了机器学习中黑箱模型的可解释性问题,提出通过设计内在可解释模型来增强信任。研究表明,结合符号知识的混合学习方法可以在不同领域中替代黑箱模型,推动更负责任的机器学习应用。
本文介绍了一种将符号知识与神经网络相结合的方法,用于基于上下文的人体运动预测。该方法在离线数据集上取得了更好的性能,并开发了一个面向机器人的软件包neuROSym,用于在线运行、可视化和评估运动预测模型。评估结果表明,使用神经符号架构能够普遍改善性能。
该研究发现了一种解决绑定问题的通用机制,即绑定ID机制。研究者使用因果干预证明语言模型的内部激活,并将绑定ID向量附加到相应的实体和属性上来表示绑定信息。研究还展示了绑定ID向量形成的连续子空间,其中向量之间的距离反映了它们的可辨性。这些结果揭示了语言模型在上下文中表示符号知识的可解释策略,为理解大规模语言模型中通用的上下文推理迈出了一步。
完成下面两步后,将自动完成登录并继续当前操作。