We introduce DataComp for Language Models (DCLM), a testbed for controlled dataset experiments with the goal of improving language models. As part of DCLM, we provide a standardized corpus of 240T...
本文介绍了一种基于无损数据压缩的评估方法,用于测试模型训练截断后的预测能力广义化情况。实验测试了14种大型语言模型,发现Mistral和Llama-2模型在性能和鲁棒性方面表现良好。同时,上下文大小和标记化实现对整体压缩性能有很大影响。
完成下面两步后,将自动完成登录并继续当前操作。