用于评估数据科学中大型语言模型可重复性的分析-检查框架
📝
内容提要
本研究针对大型语言模型(LLMs)在数据科学中的可重复性问题进行了探索,提出了一种新颖的分析-检查框架,以自动评估和保障LLM生成的数据科学工作流程的可重复性。研究发现更高的可重复性与更好的准确性高度相关,并且提出的增强可重复性的提示策略有效,展示了结构化提示在增强自动化数据科学工作流程中的潜力。
🏷️
标签
➡️