大语言模型的不确定性

💡 原文中文,约4600字,阅读约需11分钟。
📝

内容提要

在工程实践中,即使设置temperature=0和seed=0,LLM的输出仍然无法保证完全确定性,原因包括采样配置和数值误差等。目标应是控制模型行为在可接受的稳定性范围内,而非追求绝对一致性。建议通过参数调整、缓存和上层逻辑来应对不确定性,LLM更适合作为辅助决策工具。

🎯

关键要点

  • 即使设置temperature=0和seed=0,LLM的输出仍然无法保证完全确定性。
  • 输出不确定性的原因包括采样配置、数值误差、批量调度等多个层级。
  • 工程实践中应追求模型行为在可接受的稳定性范围内,而非绝对一致性。
  • temperature越高,输出分布越平,越低则趋向于贪婪解码。
  • seed仅控制伪随机数生成器的序列,对数值并行和调度没有直接约束。
  • 在云端API中,批次和浮点计算的差异会导致输出不一致。
  • 不同框架对temperature=0的实现不统一,可能导致输出差异。
  • 输入的微小变化也可能导致输出的不一致。
  • 在云场景中,建议使用极低的temperature和固定的参数以减少随机性。
  • 自建推理时,禁用采样并固定随机种子以提高确定性。
  • 即使在理想配置下,LLM仍表现出显著的非确定性,追求严格确定性几乎不现实。
  • LLM应被视为带噪声的推理器,适合辅助决策而非唯一权威。
➡️

继续阅读