具有大型语言模型的语境中感知歧义学习
原文中文,约400字,阅读约需1分钟。发表于: 。通过对三个文本分类任务的广泛实验,我们发现在选择演示示例时,不仅选择语义上相似的演示示例有益,还选择那些有助于解决测试示例周围固有标签模糊性的演示示例。有趣的是,我们发现包括之前被 LLM 错误分类并且与测试示例的决策边界相近的演示示例能够带来最大的性能提升。
本文研究了大型语言模型在上下文学习中的表现,通过使用相同的演示示例训练相同的模型,研究它们在标签扰动下的表现。实验证明,黄金标签对下游上下文性能有显著影响,但不平衡标签对上下文学习的影响较小。与监督学习相比,上下文学习对标签扰动的敏感性较低,并且随着模型大小的增加,性能逐渐与监督学习相当。