HLS-Eval:用于评估大型语言模型在高级综合设计任务中的基准和框架

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本研究提出HLS-Eval评估框架,旨在解决大型语言模型在高级综合设计任务中的评估问题,提供94个基准,促进LLM在硬件领域的应用。

🎯

关键要点

  • 本研究提出HLS-Eval评估框架,解决大型语言模型在高级综合设计任务中的评估问题。
  • HLS-Eval是首个完整的评估框架,专注于自然语言生成HLS代码及HLS特定代码编辑任务。
  • 该框架提供94个独特设计的基准,支持快速原型设计新基准、任务和LLM方法。
  • HLS-Eval对推动LLM在硬件领域的应用具有重要影响。
➡️

继续阅读