最近邻假设解码用于 LLM 生成和归因
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究将预训练的神经语言模型与$k$最近邻居模型线性插值,提高了Wikitext-103 LM的困惑度2.9点至15.79,无需额外训练。该方法在扩展到更大的训练数据和实现领域自适应方面也表现出良好效果。作者认为最近邻搜索是长尾系统的有效语言建模方法。
🎯
关键要点
- 引入了 $k$NN-LMs,将预训练的神经语言模型与 $k$ 最近邻居模型线性插值。
- 在 Wikitext-103 LM 中实现了困惑度为 15.79,提升了 2.9 点,无需额外训练。
- 该方法在扩展到更大的训练数据和实现领域自适应方面表现良好。
- 作者认为最近邻搜索是长尾系统的有效语言建模方法。
➡️