aiXcoder-7B:一种轻量级和有效的大型语言模型用于代码补全
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了大型语言模型在代码补全中的响应时间过长和开发者生产力下降的问题。我们提出了一种名为aiXcoder-7B的轻量级有效模型,通过多目标训练和多样化的数据采样策略,显著提高了代码补全的准确性。实验证明,aiXcoder-7B在多个基准测试中超过同类模型,展示了其在学术界和工业界的潜在影响。
该研究评估了GitHub Copilot在OpenAPI完成度上的表现,并提出了用Meta的Code Llama模型进行优化的方法。通过语义基准和实验,分析了提示工程和微调对性能的影响。微调后的Code Llama在参数数量远少于Codex的情况下,正确率提升至55.2%。此外,研究改进了代码插入训练技术,解决了提示上下文不足的问题。