深化软件工程中深度学习的因果可解释性研究
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文探讨了软件工程中深度学习的因果可解释性,提出了新方法DoCode,通过因果推断为模型预测提供编程语言相关的解释,促进可信人工智能在软件工程中的应用。
🎯
关键要点
- 本文探讨了软件工程中深度学习的因果可解释性问题。
- 神经代码模型(NCMs)存在透明度不足的问题,导致信息缺失。
- 提出了一种新的后期可解释性方法DoCode。
- DoCode通过因果推断为模型预测提供与编程语言相关的解释。
- 研究结果显示NCMs对代码语法变化敏感,并能学习特定的编程概念。
- 该研究推进了软件工程中可信人工智能的应用。
➡️