使用终身 ICL 和任务焦点对长篇语言模型进行压力测试
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
研究发现,当模型的上下文长度增加时,示例检索在较短上下文下表现好,但随着演示增加,增益减弱。微调比上下文学习更依赖数据,但有时可以超过长上下文性能。长上下文对乱序不敏感,相同标识示例分组可能对性能有负面影响。长上下文性能提升不是来自累积增益,而是来自于重新关注类似示例而非任务学习。
🎯
关键要点
-
模型的上下文长度增加时,演示数量接近整个训练数据集规模。
-
在多个数据集和模型上,长上下文下的性能在数百或数千个演示中仍在增加。
-
示例检索在较短上下文下表现好,但随着演示增加,增益减弱。
-
微调比上下文学习更依赖数据,有时可以超过长上下文性能。
-
长上下文对随机输入乱序不敏感,相同标签示例分组可能对性能有负面影响。
-
长上下文性能提升不是来自累积增益,而是来自重新关注类似示例而非任务学习。
➡️