Databricks宣布,Mosaic AI Model Training现在支持在微调Meta Llama 3.1模型系列时的完整上下文长度为131K个标记。这使得客户能够使用长上下文长度的企业数据构建更高质量的Retrieval Augmented Generation (RAG)或工具使用系统。Llama 3.1模型的长上下文长度能够对大量输入信息进行推理,减少在RAG中的分块和重新排序的需求,或为代理提供更多工具描述。Databricks通过使用序列并行性来优化微调过程,将序列的激活内存分布到多个GPU上,减少了GPU内存占用并提高了训练效率。微调过程中使用的内部Llama表示使得序列并行性成为可能,同时提高了训练吞吐量并需要更小的内存占用。客户可以通过UI或以Python编程的方式开始微调Llama 3.1模型。
完成下面两步后,将自动完成登录并继续当前操作。