评估大语言模型在生成等价类和边界值单元测试中的应用 本研究解决了程序员常常忽视的单元测试设计与实施的复杂性,通过评估大语言模型(LLMs)在自动生成测试用例方面的潜力,提出了一种优化的提示设计,涵盖了等价类和边界值等关键案例。研究发现,LLMs的有效性依赖于精心设计的提示、稳健的实现和精确的需求,同时强调了人工定性分析在单元测试评估中的必要性。 本研究探讨了程序员忽视的单元测试设计复杂性,评估大语言模型在自动生成测试用例中的潜力,并提出优化提示设计,强调人工定性分析的重要性。 单元测试 大语言模型 定性分析 提示设计 测试用例