💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
上下文衰退指大型语言模型(LLM)在输入长度增加时性能下降。Chroma研究团队的2025年研究测试了18个前沿模型,发现衰退并非逐渐发生,而是在特定上下文长度内保持高准确率后,性能突然大幅下降,且难以预测何时达到临界点,因模型和任务不同而异。
🎯
关键要点
-
上下文衰退是大型语言模型(LLM)在输入长度增加时性能下降的现象。
-
Chroma研究团队的2025年研究测试了18个前沿模型。
-
研究发现衰退并非逐渐发生,而是在特定上下文长度内保持高准确率后,性能突然大幅下降。
-
性能下降的临界点难以预测,且因模型和任务的不同而异。
➡️