防止AI模型对错误答案过于自信的方法
原文英文,约1000词,阅读约需4分钟。发表于: 。More efficient than other approaches, the “Thermometer” technique could help someone know when they should trust a large language model.
麻省理工学院和MIT-IBM Watson AI实验室的研究人员引入了一种名为“温度计”的校准方法,用于大型语言模型(LLMs)。该方法通过构建辅助模型来校准LLMs,提高校准响应和效率。温度计可以帮助用户识别模型过于自信的错误预测,并防止在可能失败的情况下部署该模型。研究人员还发现,温度计模型可以直接应用于较大的LLMs。未来,他们计划将温度计应用于更复杂的文本生成任务和更大的LLMs。