深化软件工程中深度学习的因果可解释性研究

本论文探讨了在软件工程中实现深度学习的因果可解释性所面临的问题,尤其是神经代码模型(NCMs)透明度不足造成的信息缺失。论文提出了一种新的后期可解释性方法DoCode,通过因果推断为模型预测提供与编程语言关联的解释,其研究结果显示NCMs对代码语法变化敏感,并能够学习特定的编程概念,推进了软件工程中可信人工智能的应用。

本文探讨了软件工程中深度学习的因果可解释性,提出了新方法DoCode,通过因果推断为模型预测提供编程语言相关的解释,促进可信人工智能在软件工程中的应用。

原文中文,约400字,阅读约需1分钟。发表于:
阅读原文