HLS-Eval: A Benchmark and Framework for Evaluating Large Language Models in High-Level Synthesis Design Tasks

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出HLS-Eval,这是评估大型语言模型(LLM)在高级综合设计任务中的首个完整框架,提供94个独特基准,支持快速原型设计,推动LLM在硬件领域的应用。

🎯

关键要点

  • HLS-Eval是评估大型语言模型在高级综合设计任务中的首个完整框架。
  • 该框架解决了评估工具和基准缺乏的问题。
  • HLS-Eval专注于从自然语言生成HLS代码及进行HLS特定代码编辑的任务。
  • 提供94个独特设计的基准,支持快速原型设计新基准、任务和LLM方法。
  • HLS-Eval对推动LLM在硬件领域的应用具有重要影响。
➡️

继续阅读