深化软件工程中深度学习的因果可解释性研究

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本文探讨了软件工程中深度学习的因果可解释性,提出了新方法DoCode,通过因果推断为模型预测提供编程语言相关的解释,促进可信人工智能在软件工程中的应用。

🎯

关键要点

  • 本文探讨了软件工程中深度学习的因果可解释性问题。
  • 神经代码模型(NCMs)存在透明度不足的问题,导致信息缺失。
  • 提出了一种新的后期可解释性方法DoCode。
  • DoCode通过因果推断为模型预测提供与编程语言相关的解释。
  • 研究结果显示NCMs对代码语法变化敏感,并能学习特定的编程概念。
  • 该研究推进了软件工程中可信人工智能的应用。
➡️

继续阅读