小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
沉浸式翻译 immersive translate

本研究探讨了大语言模型与小语言模型的协作,解决了部署成本和延迟问题,分析了交互机制及关键技术,强调了协作在高效人工智能构建中的潜力与未来挑战。

大语言模型与小语言模型之间协作机制的调查

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z

本研究提出G-Boost框架,旨在提升私有小语言模型在计算资源有限情况下的表现。通过与通用大语言模型协作推断,该框架显著提高了私有小语言模型的性能,实验结果显示其潜在影响巨大。

G-Boost:通过通用大语言模型提升私有小语言模型性能

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-13T00:00:00Z
生成式人工智能与小语言模型:边缘计算的新纪元

在医院中,患者的医疗记录可通过边缘计算与小语言模型(SLMs)结合,实现实时监测和个性化医疗。SLMs适合资源有限的个人设备,能够快速处理特定案例数据,提高医疗效率。通过联邦学习,医院可以在保护隐私的前提下共享模型参数,改善治疗效果。SLMs在医疗和金融等领域具有广泛的应用潜力。

生成式人工智能与小语言模型:边缘计算的新纪元

The New Stack
The New Stack · 2025-02-07T20:00:27Z

本研究针对自动化日志分析中小语言模型(SLMs)和大语言模型(LLMs)各自存在的成本与性能差距问题,提出了一种结合两者的自适应日志分析框架AdaptiveLog。该框架通过不确定性估计自适应选择性地调用LLM,从而在处理复杂日志时提高性能,同时保持成本效率。实验表明,AdaptiveLog在各种任务中实现了最先进的效果,提升了日志分析的整体准确性。

自适应日志:一种结合大语言模型和小语言模型的自适应日志分析框架

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-19T00:00:00Z

本研究解决了移动UI代理对强大语言模型的需求,带来了用户隐私和服务成本问题。通过将UI任务转化为代码生成,自动构建API文档并生成任务样本,显著提升了移动任务自动化的成功率和效率。

AutoDroid-V2:通过代码生成提升基于小语言模型的GUI代理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-24T00:00:00Z

本研究探讨了较小语言模型(SLMs)在指令调优中的潜力,发现其能够合成更有效的指令并生成多样的指令变体,同时提出了IC-IFD指标以提升指令数据的有效性评价。

较小语言模型更适合指令演变

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-15T00:00:00Z
边缘计算中小语言模型(SLMs)的高效资源管理

小语言模型(SLMs)通过量化和剪枝技术优化边缘计算设备的资源管理,使其在处理能力、内存和能耗受限的情况下高效运行。SLMs能够实时学习和适应模式,减轻计算负担,提升智能设备性能,广泛应用于物联网、智能家居和工业自动化等领域。

边缘计算中小语言模型(SLMs)的高效资源管理

InfoQ
InfoQ · 2024-11-11T11:00:00Z
播客:Namee Oberst谈小语言模型及其如何推动AI驱动的个人电脑

小语言模型(SLMs)正在革新金融和法律领域的AI应用。与大型语言模型相比,SLMs体积更小、效率更高,适合移动设备和边缘计算,能够本地处理数据以保护隐私。AI Bloks创始人Namee Oberst指出,SLMs能够自动化日常任务,提高工作效率,并在合规性和可审计性方面表现优异。

播客:Namee Oberst谈小语言模型及其如何推动AI驱动的个人电脑

InfoQ
InfoQ · 2024-11-04T11:00:00Z
SmolLM2 发布:新系列(0.1B、0.3B 和 1.7B)小语言模型,性能优于 Meta Llama 3.2 1B

SmolLM2是一系列优化的小型语言模型,旨在提高资源效率,解决大型模型的局限。它们可在设备上直接运行,支持文本重写和摘要等任务,适合低延迟和隐私要求的应用。SmolLM2的参数范围从1.35亿到17亿,标志着设备端自然语言处理的新标准。

SmolLM2 发布:新系列(0.1B、0.3B 和 1.7B)小语言模型,性能优于 Meta Llama 3.2 1B

实时互动网
实时互动网 · 2024-11-01T03:37:40Z

本文介绍了GAOKAO-Benchmark,利用中国高考问题评估大型语言模型。研究发现ChatGPT在客观题上表现优异,但也暴露了其不足,为未来的评估提供了基础和见解。

使用电路断路器缩小语言模型的范围

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-28T00:00:00Z

研究小语言模型在训练后期性能下降的问题,分析Pythia模型的训练动态,发现小模型层收敛速度慢且不稳定,尤其在参数有效秩低时。研究提供了提高小模型学习效率的新方法。

趋向稳定:小语言模型中的收敛挑战

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-15T00:00:00Z
AMD 发布 AMD-135M:开源小语言模型

AMD 发布了首个小型语言模型 AMD-135M,完全开源,包括训练代码、数据集和权重。该模型基于 LLaMA2 架构,用 AMD Instinct MI250 加速器训练,处理了 6700 亿个令牌。AMD 鼓励在其硬件上进行 AI 开发。模型可在 HuggingFace 和 GitHub 获取。

AMD 发布 AMD-135M:开源小语言模型

实时互动网
实时互动网 · 2024-09-29T02:08:09Z

本文介绍了一种基于大型语言模型的方法,用于回答复杂问题中的数字推理。该方法使用新颖的零样本提示,通过编码到程序中执行,显著提高了准确性。实验证明零样本提示在领域特定数值推理中具有巨大潜力。

针对金融文档的问答的较小语言模型的微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-22T00:00:00Z
降低延迟:NVIDIA首个设备端小语言模型如何让数字人更逼真

Amazing Seasun Games在Gamescom上展示了《Mecha BREAK》,首款使用NVIDIA ACE技术的游戏。该技术包括NVIDIA Nemotron-4 4B,提供更快、更相关的响应。NVIDIA ACE还引入了名为Nemotron-4 4B Instruct的本地小语言模型(SLM),为游戏角色提供更好的角色扮演、检索增强生成和功能调用能力。该模型可作为NVIDIA NIM云和本地部署的微服务提供给游戏开发者,针对低内存使用进行了优化,提供更快的响应时间,并为开发者提供了一种利用超过1亿台GeForce RTX笔记本电脑和NVIDIA RTX工作站的方式。

降低延迟:NVIDIA首个设备端小语言模型如何让数字人更逼真

NVIDIA Blog
NVIDIA Blog · 2024-08-21T13:00:57Z

该研究提出了一种通过协作教授多个大型语言模型(LLM)的方法。通过在标记级别交替生成,模型可以自动学习何时生成自己,并在需要时调用其他语言模型进行生成。该方法在跨领域设置中特别有用,并展示了联合系统的性能优于单个模型。通过定性分析,研究还展示了模型呈现了几种有趣的协作模式。

大和小语言模型协同解码的经验研究

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-18T00:00:00Z

本文研究了使用大型语言模型作为HRI的0模型的潜力,并在三个社交数据集上进行了实验。结果显示LLMs能够实现与定制模型相当的性能,同时还讨论了当前的限制。展示了LLM人类模型如何集成到社交机器人的规划过程中并应用于HRI场景。结果表明LLMs为HRI的人类建模提供了一种有前途但不完整的方法。

HARE:人类先验:小语言模型效率的关键

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-06-17T00:00:00Z

本文介绍了一种名为Debiasing Contrastive Learning (DCT)的NLU去偏置方法,通过对比学习缓解编码偏置潜在特征和偏置影响的动态性。实验结果显示,DCT在保持分布内性能的同时,在分布之外的数据集上表现出色,并减少了模型表示中的偏置潜在特征。

COBias 和 Debias:通过非线性整数规划来减小语言模型的成对准确性偏倚

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-05-13T00:00:00Z

小型语言模型通过知识蒸馏、量化和剪枝等技术,具有高效性和多功能性。它们在物联网、个性化内容推荐、医疗诊断和教育工具等领域有广泛应用。然而,小型语言模型需要进一步优化和微调以应对信息丢失和性能下降的挑战。随着模型压缩算法和硬件优化技术的进步,小型语言模型在实现人工智能民主化方面具有巨大潜力。

小语言模型指南

解道jdon.com
解道jdon.com · 2024-04-28T23:16:00Z

微软新的小语言模型Phi-3-mini性能强大,只有30亿个参数,但能在各种任务中提供一流的结果。Phi-3-mini由Microsoft开发并在MIT许可下开源,对于想要探索大型语言模型的人来说是一个可靠且易于访问的选择。测试者表示Phi-3-mini在常识、地理、代码生成、推理和常识方面表现良好。它的大小适合在小树莓派上独立运行,也适合在智能手机上使用。

微软小语言模型Phi-3-mini测试体验

解道jdon.com
解道jdon.com · 2024-04-25T00:46:00Z

苹果发布了开源微语言模型OpenELM,具有开源训练和推理框架,采用分层缩放策略提高准确性。发布了多个参数模型,包括270M、450M、1.1B和3B。与微软的Phi-3-mini相比,OpenELM 3B在竞赛中表现出更好的性能。

苹果OpenELM:开源小语言模型

解道jdon.com
解道jdon.com · 2024-04-25T00:31:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码