小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究分析了语言模型在推理任务中的性能差异,强调学习率与批量大小比率的重要性。通过开发SmolTulu模型,优化了这两者的关系,显著提升了模型在指令跟随和数学推理方面的表现。

SmolTulu: Higher Learning Rate and Batch Size Ratio Enhance the Reasoning Ability of SLMs

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-11T00:00:00Z
使用小型语言模型(SLMs)和本地托管的大型语言模型(LLMs)进行编码:技巧与建议

随着GitHub Copilot等AI工具的普及,开发者对代码隐私和API成本的关注增加。本地托管的语言模型(LLMs)和小型语言模型(SLMs)因其在隐私、延迟和定制化方面的优势而受到重视。LLMs适合复杂项目,而SLMs适合快速原型开发。尽管本地模型受限于硬件,但它们提供更高的隐私性和控制权,未来可能成为编码助手的趋势。

使用小型语言模型(SLMs)和本地托管的大型语言模型(LLMs)进行编码:技巧与建议

The New Stack
The New Stack · 2024-11-29T17:00:04Z
边缘计算中小语言模型(SLMs)的高效资源管理

小语言模型(SLMs)通过量化和剪枝技术优化边缘计算设备的资源管理,使其在处理能力、内存和能耗受限的情况下高效运行。SLMs能够实时学习和适应模式,减轻计算负担,提升智能设备性能,广泛应用于物联网、智能家居和工业自动化等领域。

边缘计算中小语言模型(SLMs)的高效资源管理

InfoQ
InfoQ · 2024-11-11T11:00:00Z

本文讲述如何利用小型语言模型(SLMs)和LoRA适配器创建函数调用代理。通过分离推理和函数执行,SLMs在资源有限或低延迟环境中实现高效微调和执行,提升性能和速度。使用Salesforce/xlam-function-calling-60k数据集训练的模型,展示了构建高性能、低资源AI应用的方法,并可扩展至更大模型如LLaMA 3.1-8B。

从零开始使用SLMs构建ReAct代理

DEV Community
DEV Community · 2024-09-29T10:00:52Z

微软推出了Phi-3.5-mini、Phi-3.5-vision和Phi-3.5-MoE等新产品,这些模型在多语言支持、图像理解和推理能力方面表现出色。Phi-3.5-MoE是一个混合专家模型,具有16个专家和66亿个参数,支持128K的上下文长度。Phi-3.5-mini具有多语言支持和128K的上下文长度。Phi-3.5-vision提高了多帧图像的理解和推理能力。这些模型在性能和安全性方面超越了更大规模的模型,并为各种任务提供了良好的能力。

发现新一代多语言高品质Phi-3.5 SLMs

dotNET跨平台
dotNET跨平台 · 2024-08-24T00:01:24Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码