NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

NeurIPS 2024 | 大模型的词表大小,同样适用于Scaling Law

💡 原文中文,约7100字,阅读约需17分钟。
📝

内容提要

本文研究了大型语言模型中词表大小对性能的影响,发现词表大小是关键因素。在固定计算预算下,存在一个最优词表大小。研究提出了三种预测方法:基于FLOPs、导数和损失函数拟合。结果表明,较大模型需要更大词表来提升性能。设计和训练时需综合考虑模型参数、训练数据和词表大小。

🎯

关键要点

  • 研究大型语言模型中词表大小对性能的影响,发现词表大小是关键因素。

  • 在固定计算预算下,存在一个最优词表大小。

  • 提出三种预测方法:基于FLOPs、导数和损失函数拟合。

  • 较大模型需要更大词表来提升性能。

  • 设计和训练时需综合考虑模型参数、训练数据和词表大小。

  • 以往研究主要关注模型参数和训练数据,忽略词表大小的作用。

  • 通过训练不同词表配置的模型,提出了预测最优词表大小的方法。

  • 研究结果表明,较大的模型应配备更大的词表。

  • 在给定算力的情况下,最优的词表大小是有上限的。

  • 实验验证了使用预测的最优词表大小可以提高模型性能。

  • 词表大小对模型性能的影响遵循幂律关系。

  • 随着词表大小的增加,模型性能先提高后降低。

  • 存在一个使损失最小化的最优词表大小。

  • 三种方法分别通过IsoFLOPs、导数和损失公式来估计最优词表大小。

  • 主流LLMs通常分配给词表参数偏少,但开始转向更大的词表大小。

  • 扩展数据仍然是最关键的部分,解决数据稀缺问题应成为未来工作的重点。

  • 论文强调在设计和训练LLMs时,需要综合考虑模型参数、训练数据和词表大小。

➡️

继续阅读