ESALE:增强源代码摘要对齐学习的方法
原文中文,约400字,阅读约需1分钟。发表于: 。通过多任务学习范式,利用三个以摘要为重点的任务训练编码器,提出了一种新的改进代码摘要的方法,这三个任务包括单向语言建模(ULM)、掩码语言建模(MLM)和动作词预测(AWP)。实验证明,我们的方法 ESALE 在四个数据集上的表现明显优于基线模型,包括 BLEU、METEOR 和 ROUGE-L 三个广泛使用的指标。
本文介绍了PromptCS,一种新型代码摘要提示学习框架,通过训练提示代理来释放大语言模型在代码摘要中的潜力。在CodeSearchNet数据集上的评估结果显示,PromptCS优于四个度量标准的指导学习方案,并且在某些大语言模型上甚至优于任务导向的微调方案。此外,PromptCS的训练效率更高,能够生成更好的摘要。