小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

研究探讨了金融领域应用大语言模型时,单一任务微调的局限性。结果显示,多任务微调显著提升模型性能,小型模型Phi-3-Mini在财务基准上超过了GPT-4-o。实验验证了该方法的有效性,并分析了通用指令数据和数学数据对性能的提升作用。

混合方法:多任务微调对大语言模型性能的鸡尾酒效应——以金融为案例研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-01T00:00:00Z
小而强大:NVIDIA加速Microsoft的开放Phi-3 Mini语言模型

NVIDIA加速了Microsoft的Phi-3 Mini开放语言模型,并使用NVIDIA TensorRT-LLM进行优化。Phi-3 Mini具有10倍大模型的能力,可用于研究和商业用途。Phi-3 Mini有两个变体,一个支持4k tokens,另一个支持128K tokens。开发者可以在ai.nvidia.com上尝试Phi-3 Mini,并在Jetson AI Lab上学习部署。TensorRT-LLM将支持Phi-3 Mini的长上下文窗口,并提供多种优化和内核。NVIDIA是开源生态系统的积极贡献者,并与Microsoft合作加速DirectML、Azure云、生成AI研究、医疗和生命科学等创新。

小而强大:NVIDIA加速Microsoft的开放Phi-3 Mini语言模型

NVIDIA Blog
NVIDIA Blog · 2024-04-23T17:08:23Z
微软推出迄今最小的AI模型Phi-3

微软发布了轻量级AI模型Phi-3 Mini的下一个版本,该模型是公司计划发布的三个小型模型之一。Phi-3 Mini拥有38亿个参数,并且相对于GPT-4等大型语言模型,它的数据集较小。该模型现在可在Azure、Hugging Face和Ollama上使用。微软计划发布Phi-3 Small(70亿参数)和Phi-3 Medium(140亿参数)。小型模型通常在运行成本上更便宜,并且在个人设备上的性能更好。与其他竞争对手的小型AI模型相比,Phi-3在编码和推理方面表现更好。然而,Phi-3系列模型的广度不及GPT-4或其他大型语言模型。

微软推出迄今最小的AI模型Phi-3

The Verge
The Verge · 2024-04-23T07:19:23Z

phi-3-mini是一个38亿参数的语言模型,使用33万亿标记进行训练。该模型在学术基准和内部测试中表现出色,足够小可以在手机上运行。训练数据集是phi-2数据集的扩大版本,由经过过滤的网络数据和合成数据组成。文章还提到了模型的鲁棒性、安全性和聊天格式,并提供了7B和14B模型的初始参数缩放结果。

Phi-3 技術報告:在您的手機上本地運行的功能強大的語言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-04-22T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码