LZ Penalty: An Information-Theoretic Repetition Penalty for Autoregressive Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出LZ惩罚,旨在解决自回归语言模型中的重复问题。该方法基于LZ77无损压缩算法,通过预测-压缩对偶性,降低重复率而不损失模型能力。
🎯
关键要点
- LZ惩罚旨在解决自回归语言模型中的重复问题。
- 该方法基于LZ77无损压缩算法的编码长度。
- 通过预测-压缩对偶性,LZ惩罚能够降低重复率而不损失模型能力。
- LZ惩罚使开放源码推理模型能够在无损能力的情况下采用贪婪解码。
➡️