语言无关代码嵌入
原文中文,约300字,阅读约需1分钟。发表于: 。本研究通过分析逐渐增长的跨语言代码模型的代码嵌入,展示了代码嵌入包含两个不同组成部分,一个与特定语言的细微差别和语法紧密相连,另一个则与此类细节无关,主要关注语义。此外,我们证明在去除特定语言组成部分后,下游代码检索任务有着显著改进,平均逆向排名 (MRR) 可达 + 17 的绝对增益。
本文介绍了新的基准测试,测试多语言环境下的代码生成模型性能,发现多语言模型优势,通过 few-shot prompting 实现了模型新语言教学和 zero-shot translation 能力,利用其代码生成模型在多种语言上实现了大规模引导过程,产生了其他评估任务中使用的合成规范解决方案。