基于预训练和上下文学习的贝叶斯推断理论
原文中文,约400字,阅读约需1分钟。发表于: 。准确评估智能系统对基础环境的不确定性是长期以来的目标,本文通过描述先验序列模型能够自然推理的潜在概念,以及通过建模可交换序列的贝叶斯推理来扩展上下文学习,研究了预训练的序列模型在不确定性量化等下游任务中的性能控制。
本研究探讨了大型自回归模型Transformer在任务相关潜变量方面的效果,发现与标准Transformer相比,任务相关潜变量并不能普遍提高性能。研究还发现,瓶颈层可以提取潜在的任务变量,但下游处理很难利用它们进行预测。这项研究突显了Transformer在上下文学习方面的局限性。