性能对齐的 LLM 用于生成高效代码
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本研究通过对大型语言模型进行代码测试,展示了有趣性质并提出改进测试能力的方法。通过生成测试用例,提高了合成程序的质量。相较于GPT-3.5-turbo和最新技术,我们的方法在HumanEval+上的代码通过率分别提高了11.77%和4.22%。
🎯
关键要点
- 本研究对大型语言模型进行了代码测试的详尽分析。
- 展示了大型语言模型的一系列有趣性质。
- 提出了改进大型语言模型程序测试能力的方法。
- 通过生成测试用例来提高合成程序的质量。
- 相较于GPT-3.5-turbo和最新技术,我们的方法在HumanEval+上的代码通过率分别提高了11.77%和4.22%。
➡️