phi-3-mini是一个38亿参数的语言模型,使用33万亿标记进行训练。该模型在学术基准和内部测试中表现出色,足够小可以在手机上运行。训练数据集是phi-2数据集的扩大版本,由经过过滤的网络数据和合成数据组成。文章还提到了模型的鲁棒性、安全性和聊天格式,并提供了7B和14B模型的初始参数缩放结果。
完成下面两步后,将自动完成登录并继续当前操作。