使用终身 ICL 和任务焦点对长篇语言模型进行压力测试
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
研究发现,当模型的上下文长度增加时,示例检索在较短上下文下表现好,但随着演示增加,增益减弱。微调比上下文学习更依赖数据,但有时可以超过长上下文性能。长上下文对乱序不敏感,相同标识示例分组可能对性能有负面影响。长上下文性能提升不是来自累积增益,而是来自于重新关注类似示例而非任务学习。
🎯
关键要点
- 模型的上下文长度增加时,演示数量接近整个训练数据集规模。
- 在多个数据集和模型上,长上下文下的性能在数百或数千个演示中仍在增加。
- 示例检索在较短上下文下表现好,但随着演示增加,增益减弱。
- 微调比上下文学习更依赖数据,有时可以超过长上下文性能。
- 长上下文对随机输入乱序不敏感,相同标签示例分组可能对性能有负面影响。
- 长上下文性能提升不是来自累积增益,而是来自重新关注类似示例而非任务学习。
➡️