MojoBench:Mojo语言建模与基准测试
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对Mojo编程语言在代码生成领域的探索空白,提出了MojoBench框架,包含用于评估代码大语言模型的HumanEval-Mojo基准数据集及首个针对Mojo代码生成的预训练与微调的LLM Mojo-Coder,支持五种自然语言的指令。研究显示,Mojo-Coder相较于领先模型,例如GPT-4o和Claude-3.5-Sonnet,性能提升了30-35%。
本研究提出了MojoBench框架,包括HumanEval-Mojo基准数据集和Mojo-Coder模型,支持五种自然语言指令。Mojo-Coder的性能比GPT-4o和Claude-3.5-Sonnet提高了30-35%。