大型语言模型尚未能够自校正推理
原文中文,约600字,阅读约需2分钟。发表于: 。本文探讨了自我纠错在大型语言模型中的作用和效果,发现大型语言模型在没有外部反馈的情况下难以自我纠正其回应,在某些情况下,性能甚至可能在自我纠正后下降。基于这些发现,提出了未来研究和实际应用的建议。
本文探讨了大语言模型在训练中解决的问题,即互联网文本的下一个词预测,并提出了目的论方法来预测大语言模型的成功或失败。作者通过对两个大语言模型进行评估,发现大语言模型的准确性受到执行任务的概率、目标输出的概率和提供的输入的概率的影响。在低概率情况下,大语言模型的准确性会受到影响,AI从业者需要谨慎使用。作者认为,大语言模型应该被看作一类独特的系统,而不是被评估为人类。