软银系列开放语言模型

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

本文介绍了支持高达32,768个令牌的长上下文LLMs,通过持续预训练和上采样长文本数据集构建模型。模型在语言模型、合成上下文探索任务和研究基准上取得了一致的改进。70B变体在长上下文任务中超过了gpt-3.5-turbo-16k的整体性能。研究了位置编码和预训练过程中的设计选择的影响。验证了长上下文持续预训练相对于从头开始的长序列预训练更高效且同样有效。

🎯

关键要点

  • 介绍了一系列支持高达32,768个令牌的长上下文LLMs。
  • 模型通过持续预训练和上采样长文本数据集构建。
  • 在语言模型、合成上下文探索任务和研究基准上取得了一致的改进。
  • 70B变体在长上下文任务中超过了gpt-3.5-turbo-16k的整体性能。
  • 研究了位置编码在建模长依赖性方面的局限性。
  • 分析了预训练过程中的设计选择对模型性能的影响。
  • 验证了长上下文持续预训练比从头开始的长序列预训练更高效且同样有效。
➡️

继续阅读