CodeArt: 当符号缺失时通过注意力正则化改进代码模型
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
该文章介绍了一种新的预训练代码模型,利用Transformer模型和注意力屏蔽等方法,能够在缺少符号的情况下学习程序的上下文和相关性,并在多个软件工程任务中取得显著的性能提升。
🎯
关键要点
- 提出了一种新的预训练代码模型
- 采用了Transformer模型和注意力屏蔽等方法
- 能够在缺少符号的情况下学习程序的上下文和相关性
- 在多个软件工程任务中取得了显著的性能提升
➡️