小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

瑞士研究表明,小语言模型(SLM)作为代码评委的效果优于大模型,成本仅为其几十分之一。最佳评委为Qwen2.5 Coder 3B,性能显著提升。

一分钟读论文:《小语言模型作为评委提升代码生成》

Micropaper
Micropaper · 2026-02-26T10:00:00Z
小语言模型简介:2026年完整指南

小语言模型(SLM)是参数少于100亿的语言模型,适用于2026年的生产系统。SLM在成本、延迟和隐私方面具有优势,能够处理80%的常见任务,并且运行成本低。通过微调,SLM可在特定领域超越大型模型,适合客户支持、代码助手和文档处理等重复性任务。成功的AI部署在于将模型与任务匹配,而非单纯追求模型规模。

小语言模型简介:2026年完整指南

MachineLearningMastery.com
MachineLearningMastery.com · 2026-02-24T11:00:36Z
技术速递|GitHub Copilot SDK 与混合 AI 实践:README 到 PPT 的自动化转换流程

在快速发展的 AI 环境中,混合模型结合本地小语言模型(SLM)与云端大语言模型(LLM),提供安全高效的 AI 解决方案。借助 Microsoft Foundry Local 和 GitHub Copilot SDK,开发者能够自动生成专业的 PowerPoint 演示文稿,从而提升开发效率并确保隐私与成本优化。

技术速递|GitHub Copilot SDK 与混合 AI 实践:README 到 PPT 的自动化转换流程

dotNET跨平台
dotNET跨平台 · 2026-02-03T23:55:32Z
NVIDIA RTX通过LTX-2和ComfyUI升级加速PC上的4K AI视频生成

2025年,AI PC迅速发展,RTX技术提升了视频、图像和文本生成能力。小语言模型的准确性提高,开发工具日趋成熟,用户数量显著增长。NVIDIA推出新技术,支持4K视频生成,提升性能和内存效率,助力创作者制作高质量AI作品。

NVIDIA RTX通过LTX-2和ComfyUI升级加速PC上的4K AI视频生成

NVIDIA Blog
NVIDIA Blog · 2026-01-06T05:30:18Z

本研究提出了一种增强多模态基于方面的情感分析方法,结合大语言模型生成的推理信息和双重交叉注意机制,提升了小语言模型在信息收集和情感识别中的能力。实验结果显示,该方法在多个基准测试中优于现有技术。

Enhanced Multimodal Aspect-Based Sentiment Analysis by LLM-Generated Rationales

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究探讨了大语言模型与小语言模型的协作,解决了部署成本和延迟问题,分析了交互机制及关键技术,强调了协作在高效人工智能构建中的潜力与未来挑战。

大语言模型与小语言模型之间协作机制的调查

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z

本研究提出QUPID方法,通过结合生成小语言模型与嵌入小语言模型,提高信息检索的相关性评估准确性,并降低计算成本。实验结果表明,该方法在效率和相关性方面均有所提升。

QUPID: Quantitative Understanding to Enhance the Performance, Insights, and Decision-Making of Korean Search Engines

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-12T00:00:00Z
生成式人工智能与小语言模型:边缘计算的新纪元

在医院中,患者的医疗记录可通过边缘计算与小语言模型(SLMs)结合,实现实时监测和个性化医疗。SLMs适合资源有限的个人设备,能够快速处理特定案例数据,提高医疗效率。通过联邦学习,医院可以在保护隐私的前提下共享模型参数,改善治疗效果。SLMs在医疗和金融等领域具有广泛的应用潜力。

生成式人工智能与小语言模型:边缘计算的新纪元

The New Stack
The New Stack · 2025-02-07T20:00:27Z

本研究针对自动化日志分析中小语言模型(SLMs)和大语言模型(LLMs)各自存在的成本与性能差距问题,提出了一种结合两者的自适应日志分析框架AdaptiveLog。该框架通过不确定性估计自适应选择性地调用LLM,从而在处理复杂日志时提高性能,同时保持成本效率。实验表明,AdaptiveLog在各种任务中实现了最先进的效果,提升了日志分析的整体准确性。

自适应日志:一种结合大语言模型和小语言模型的自适应日志分析框架

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-01-19T00:00:00Z

本研究解决了移动UI代理对强大语言模型的需求,带来了用户隐私和服务成本问题。通过将UI任务转化为代码生成,自动构建API文档并生成任务样本,显著提升了移动任务自动化的成功率和效率。

AutoDroid-V2:通过代码生成提升基于小语言模型的GUI代理

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-24T00:00:00Z
基于症状的诊断系统构建:使用all-MiniLM-L6-V2

小语言模型(SLMs)是一种高效的神经网络,适用于情感分析和嵌入生成。MiniLM是微软开发的高效模型,all-MiniLM-L6-v2专门优化用于句子嵌入。本文探讨SLMs在基于症状的诊断系统中的应用,通过生成嵌入识别疾病并推荐治疗方案。

基于症状的诊断系统构建:使用all-MiniLM-L6-V2

DEV Community
DEV Community · 2024-12-16T09:02:18Z

本研究探讨了较小语言模型(SLMs)在指令调优中的潜力,发现其能够合成更有效的指令并生成多样的指令变体,同时提出了IC-IFD指标以提升指令数据的有效性评价。

较小语言模型更适合指令演变

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-15T00:00:00Z
边缘计算中小语言模型(SLMs)的高效资源管理

小语言模型(SLMs)通过量化和剪枝技术优化边缘计算设备的资源管理,使其在处理能力、内存和能耗受限的情况下高效运行。SLMs能够实时学习和适应模式,减轻计算负担,提升智能设备性能,广泛应用于物联网、智能家居和工业自动化等领域。

边缘计算中小语言模型(SLMs)的高效资源管理

InfoQ
InfoQ · 2024-11-11T11:00:00Z
播客:Namee Oberst谈小语言模型及其如何推动AI驱动的个人电脑

小语言模型(SLMs)正在革新金融和法律领域的AI应用。与大型语言模型相比,SLMs体积更小、效率更高,适合移动设备和边缘计算,能够本地处理数据以保护隐私。AI Bloks创始人Namee Oberst指出,SLMs能够自动化日常任务,提高工作效率,并在合规性和可审计性方面表现优异。

播客:Namee Oberst谈小语言模型及其如何推动AI驱动的个人电脑

InfoQ
InfoQ · 2024-11-04T11:00:00Z
SmolLM2 发布:新系列(0.1B、0.3B 和 1.7B)小语言模型,性能优于 Meta Llama 3.2 1B

SmolLM2是一系列优化的小型语言模型,旨在提高资源效率,解决大型模型的局限。它们可在设备上直接运行,支持文本重写和摘要等任务,适合低延迟和隐私要求的应用。SmolLM2的参数范围从1.35亿到17亿,标志着设备端自然语言处理的新标准。

SmolLM2 发布:新系列(0.1B、0.3B 和 1.7B)小语言模型,性能优于 Meta Llama 3.2 1B

实时互动网
实时互动网 · 2024-11-01T03:37:40Z

本文介绍了GAOKAO-Benchmark,利用中国高考问题评估大型语言模型。研究发现ChatGPT在客观题上表现优异,但也暴露了其不足,为未来的评估提供了基础和见解。

使用电路断路器缩小语言模型的范围

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-28T00:00:00Z

研究小语言模型在训练后期性能下降的问题,分析Pythia模型的训练动态,发现小模型层收敛速度慢且不稳定,尤其在参数有效秩低时。研究提供了提高小模型学习效率的新方法。

趋向稳定:小语言模型中的收敛挑战

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-15T00:00:00Z
AMD 发布 AMD-135M:开源小语言模型

AMD 发布了首个小型语言模型 AMD-135M,完全开源,包括训练代码、数据集和权重。该模型基于 LLaMA2 架构,用 AMD Instinct MI250 加速器训练,处理了 6700 亿个令牌。AMD 鼓励在其硬件上进行 AI 开发。模型可在 HuggingFace 和 GitHub 获取。

AMD 发布 AMD-135M:开源小语言模型

实时互动网
实时互动网 · 2024-09-29T02:08:09Z

本文讨论了微软的Phi模型在小语言模型(SLM)家族中的优秀性能和多模态能力。Phi模型具有不同的参数规模和能力,包括Phi-1、Phi-1.5、Phi-2、Phi-3和Phi-3.5等多个代系。文章还介绍了Phi模型的需求和应用场景,以及一些“黑科技”如LongRoPE、MoE混合专家、DeepSpeed和Flash Attention等。此外,文章还提到了Phi模型与CLIP模型的结合以及Flash Attention技术的应用。

五分钟——了解SLM的优异代表Phi

dotNET跨平台
dotNET跨平台 · 2024-09-03T00:00:35Z

本文介绍了一种基于大型语言模型的方法,用于回答复杂问题中的数字推理。该方法使用新颖的零样本提示,通过编码到程序中执行,显著提高了准确性。实验证明零样本提示在领域特定数值推理中具有巨大潜力。

针对金融文档的问答的较小语言模型的微调

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-08-22T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码