本研究探讨了大型语言模型(LLMs)在阈值采样时的文本记忆行为。研究发现,增加阈值大小对记忆现象的减少影响有限,模型可能表现出“软”记忆,即生成的输出与训练数据相似但不完全相同。这揭示了当前解码方法在解决文本记忆问题上的局限性。
完成下面两步后,将自动完成登录并继续当前操作。