本文介绍了解决大型语言模型过度自信和校准不佳问题的方法,通过低秩自适应和高斯随机权重平均的结合。该方法在多个自然语言处理基准测试中提高了模型的泛化能力和校准性,并在未知分布任务上表现出更强的鲁棒性。
本研究探讨了大规模语言模型(LLMs)在开放领域问题回答中的表现,发现检索增强可以提高其对知识边界的感知,但结果质量受其依赖程度影响。研究还揭示了LLMs在自信度、准确度和判断能力方面的特征。
完成下面两步后,将自动完成登录并继续当前操作。