鸿海研究院推出首个繁体中文大语言模型FoxBrain,采用高效低成本的训练方法,四周内完成。该模型支持数据分析、决策和文档协作,优化了台湾用户的语言风格,表现优异。FoxBrain基于Meta Llama 3.1架构,拥有70B参数,数学推理能力显著提升。
Databricks宣布,Mosaic AI Model Training现在支持在微调Meta Llama 3.1模型系列时的完整上下文长度为131K个标记。这使得客户能够使用长上下文长度的企业数据构建更高质量的Retrieval Augmented Generation (RAG)或工具使用系统。Llama 3.1模型的长上下文长度能够对大量输入信息进行推理,减少在RAG中的分块和重新排序的需求,或为代理提供更多工具描述。Databricks通过使用序列并行性来优化微调过程,将序列的激活内存分布到多个GPU上,减少了GPU内存占用并提高了训练效率。微调过程中使用的内部Llama表示使得序列并行性成为可能,同时提高了训练吞吐量并需要更小的内存占用。客户可以通过UI或以Python编程的方式开始微调Llama 3.1模型。
上周,AWS社区举办了女性湾区聚会,支持了拉丁美洲的女性AWS用户组。发布了Meta Llama 3.1模型、Mistral Large 2模型和加快生成式人工智能模型的自动扩缩功能。AWS Step Functions现在支持客户自主管理型密钥。其他新闻包括AWS认证新增考试题型和Amazon在Amazon EC2上从Apache Spark到Ray的迁移。
完成下面两步后,将自动完成登录并继续当前操作。