ChiseLLM:释放推理LLM在Chisel敏捷硬件开发中的力量
本研究解决了大型语言模型(LLM)在Chisel代码生成中的语法正确性和设计变异性不足的问题。提出的ChiseLLM方法通过数据处理、提示引导推理跟踪和领域适配模型训练,显著提升了生成能力。实验结果表明,该模型语法正确性提高了18.85%至26.32%,设计变异性提高了47.58%,为HCL基础的敏捷硬件开发提供了高性能的解决方案并可作为未来研究的基线。
本研究提出ChiseLLM方法,旨在解决大型语言模型在Chisel代码生成中的语法正确性和设计变异性不足的问题。实验结果表明,语法正确性提高了18.85%至26.32%,设计变异性提升了47.58%。