自担风险的信任:大型语言模型生成专家级系统工程文档能力的混合方法探索及其故障模式特征化

📝

内容提要

本研究解决了大型语言模型(LLMs)在生成系统工程(SE)文档时的有效性问题。通过实证研究,我们采用混合方法,比较了AI生成的文档与人类专家生成的基准文档,发现虽然两者在表面上相似,但AI生成的文档存在严重的故障模式,如过早定义需求和数据估算不充分等。这项研究提醒系统工程领域需谨慎接受AI生成的反馈,尤其是使用多用途LLMs时。

🏷️

标签

➡️

继续阅读