小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
使用本地小型语言模型构建AI代理

本文介绍如何使用本地小型语言模型构建AI代理,无需互联网连接和API费用。内容包括AI代理的定义、Ollama和Python库的设置步骤,以及逐步构建本地AI代理的方法。小型语言模型(如Phi-3和Llama 3.2)适合在普通电脑上运行,提供隐私保护和零成本。通过示例代码,读者可以创建具备记忆和工具的智能代理。

使用本地小型语言模型构建AI代理

MachineLearningMastery.com
MachineLearningMastery.com · 2026-04-23T12:00:31Z
LaCy:小型语言模型可以和应该学习的内容不仅仅是损失问题

本文探讨了小型语言模型(SLMs)在预训练过程中应学习的标记及何时通过<CALL>标记请求外部帮助。研究表明,损失值可以预测标记的准确性,但某些高损失标记仍可接受。提出的LaCy方法通过选择性学习和委托,显著提高了生成的准确性和效率。

LaCy:小型语言模型可以和应该学习的内容不仅仅是损失问题

Apple Machine Learning Research
Apple Machine Learning Research · 2026-04-09T00:00:00Z
可在笔记本电脑上运行的七种小型语言模型

本文介绍了七种可在笔记本电脑上运行的小型语言模型,包括Phi-3.5 Mini、Llama 3.2、Ministral 3、Qwen 2.5、Gemma 2和SmolLM2。这些模型适用于文档处理、代码生成和快速原型开发,用户可根据需求选择合适的模型。

可在笔记本电脑上运行的七种小型语言模型

MachineLearningMastery.com
MachineLearningMastery.com · 2026-02-16T11:00:13Z
通过NVIDIA MPS扩展小型语言模型

小型语言模型在企业应用中迅速发展,但GPU计算和内存带宽常常闲置。NVIDIA的多进程服务(MPS)允许多个推理进程共享GPU,显著提高小模型的吞吐量,尤其在短上下文中。然而,对于大模型和长上下文,MPS的优势减小。在CPU瓶颈情况下,MPS仍能有效利用GPU时间,但增加了操作复杂性。

通过NVIDIA MPS扩展小型语言模型

Databricks
Databricks · 2026-01-26T15:30:00Z
小型语言模型与大型语言模型:为何小型AI模型在商业中更具优势

企业AI继承了消费级AI的模型,但不适用于大多数B2B问题。企业工作流程在封闭系统中运作,小型语言模型(SLM)更能满足特定任务的需求,提供更高的准确性和效率。SLM专注于特定领域,避免了大型模型的高成本和复杂性。

小型语言模型与大型语言模型:为何小型AI模型在商业中更具优势

The New Stack
The New Stack · 2026-01-16T17:00:21Z
通过小型语言模型(SLM)和检索增强生成(RAG)构建更便宜、更安全、可审计的人工智能

企业结合小型语言模型(SLM)与检索增强生成(RAG)架构,能有效降低基础设施成本,提高响应准确性和可审计性。SLM专注于特定领域,适合企业平台的可持续运行,而RAG通过引用权威数据源增强输出可信度。模块化代理架构使每个代理独立负责特定功能,便于扩展、治理,确保合规性和操作控制。

通过小型语言模型(SLM)和检索增强生成(RAG)构建更便宜、更安全、可审计的人工智能

The New Stack
The New Stack · 2026-01-10T18:00:27Z
基于层次记忆的预训练:区分长尾知识与常识

本文介绍了一种基于层次记忆的预训练方法,旨在提升小型语言模型的性能。该方法通过访问大型记忆库,有效存储和提取长尾知识,同时保持常识理解。实验结果表明,使用这种记忆增强架构的小模型在性能上可与参数更多的常规模型相媲美,并在资源受限的设备上表现优异。

基于层次记忆的预训练:区分长尾知识与常识

Apple Machine Learning Research
Apple Machine Learning Research · 2026-01-09T00:00:00Z
2026年的数据:可互换模型、云服务与专业化

到2026年,数据生态系统将更加分散,AI代理将通过合作增强专业化,促进人机协作。用户将寻求可插拔的解决方案,而非依赖单一供应商。云服务将向区域化和专门化发展,以支持多种AI任务。同时,小型语言模型的使用将增加,以应对成本问题,实现灵活性和适应性。

2026年的数据:可互换模型、云服务与专业化

The New Stack
The New Stack · 2026-01-06T14:00:26Z
使小型语言模型能够解决复杂推理任务

麻省理工学院的研究人员开发了“DisCIPL”框架,通过结合大型语言模型与小型模型,提高了文本生成和推理任务的效率与准确性,降低了计算成本,为未来的数学推理和模糊偏好处理奠定了基础。

使小型语言模型能够解决复杂推理任务

MIT News - Computer Science and Artificial Intelligence Laboratory (CSAIL)
MIT News - Computer Science and Artificial Intelligence Laboratory (CSAIL) · 2025-12-12T20:30:00Z
IBM新推出的Granite 4模型:采用高效推理的混合Mamba-2架构,降低人工智能成本

IBM推出Granite 4.0小型语言模型系列,采用混合Mamba/变换器架构,显著降低内存需求和运行成本,同时保持高准确性。Granite提供三种模型变体,适用于不同场景,支持高效推理和长输入处理,已在Hugging Face和watsonx.ai上开源,并获得ISO/IEC 42001:2023认证。

IBM新推出的Granite 4模型:采用高效推理的混合Mamba-2架构,降低人工智能成本

InfoQ
InfoQ · 2025-11-18T02:48:00Z
如何在不降低能力的情况下降低人工智能成本:小型语言模型的崛起

小型语言模型(SLMs)正在变得更小、更智能,以更少的资源实现更高效的性能,成为开发者和企业的首选。它们在本地运行,降低成本和延迟,确保数据隐私,并在特定任务上优于大模型,适用于医疗和金融等行业。未来,小型模型将更加适应和实用,推动AI的可持续发展。

如何在不降低能力的情况下降低人工智能成本:小型语言模型的崛起

freeCodeCamp.org
freeCodeCamp.org · 2025-11-12T20:31:19Z
人工智能架构

文章讨论了人工智能的三种架构:云AI、边缘AI和本地AI。云AI集中模型托管,功能强大但存在延迟和隐私问题;边缘AI将计算移近用户,提升速度和隐私;本地AI在用户设备上运行,确保数据安全。尽管边缘AI初期硬件成本较高,但其离线能力和数据控制优势明显。文章还提到小型语言模型(SLM)在边缘AI中的应用,强调优化技术如量化和知识蒸馏。

人工智能架构

Alex Ewerlöf Notes
Alex Ewerlöf Notes · 2025-10-24T21:15:00Z
介绍:本地浏览器AI

Local Browser AI扩展使得在浏览器中运行小型语言模型(SLM)变得简单,提升了隐私和速度。该扩展免费开源,支持多种操作系统,未来将实现页面交互。尽管SLM性能不及大型模型(LLM),但硬件要求更低,适合个人使用。

介绍:本地浏览器AI

Alex Ewerlöf Notes
Alex Ewerlöf Notes · 2025-10-13T07:51:29Z
七大顶尖小型语言模型

小型语言模型(SLMs)正在改变人工智能领域,具备高效性、推理能力和广泛可及性。相比大型模型,它们更快、更智能,适用于多种任务。文章介绍了Gemma 3和Qwen系列等顶尖SLMs,强调其在推理、多语言支持和应用灵活性方面的优势,同时提供隐私和可靠性的本地智能解决方案。

七大顶尖小型语言模型

KDnuggets
KDnuggets · 2025-09-04T12:00:50Z
小型语言模型是自主人工智能的未来

小型语言模型(SLMs)被视为未来自主人工智能的关键。尽管大型语言模型(LLMs)在推理和知识广度上表现优越,但SLMs在效率、成本和适应性方面更具优势。SLMs的快速性能提升和模块化架构使其适合特定领域应用。文章指出,SLMs的经济可行性和灵活性有助于其普及,但当前LLMs的主导地位和投资仍是主要障碍。

小型语言模型是自主人工智能的未来

MachineLearningMastery.com
MachineLearningMastery.com · 2025-09-04T12:00:36Z
为什么小型语言模型(SLM)有望重新定义 Agentic AI:效率、成本和实际部署

随着Agentic AI系统的发展,研究表明小型语言模型(SLM)在效率和经济性上优于大型模型(LLM),更适合大多数代理操作。建议采用模块化系统,优先使用SLM,必要时再使用LLM,以提升AI系统的可持续性和灵活性。

为什么小型语言模型(SLM)有望重新定义 Agentic AI:效率、成本和实际部署

实时互动网
实时互动网 · 2025-06-19T03:16:16Z
云原生与开源助力扩展智能代理AI工作流

企业自动化日益依赖AI驱动的小型语言模型(SLMs),因其在响应速度、可扩展性和成本效益上优于大型语言模型(LLMs)。SLMs适用于实时客户互动和DevOps自动化,结合Kubernetes和无服务器架构可高效部署,帮助企业降低运营成本并加速创新。

云原生与开源助力扩展智能代理AI工作流

The New Stack
The New Stack · 2025-06-12T20:00:35Z

本研究探讨了小型语言模型在创伤后应激障碍(PTSD)患者中的同理对话能力,结果显示经过微调的模型在同理心表现上显著提升,但效果因场景和用户差异而异,强调设计需考虑用户的上下文。

追求同理心:评估小型语言模型在创伤后应激障碍对话支持中的应用

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究推出基准EasyMath,旨在提升小型语言模型的数学推理能力,涵盖十三类问题。测试结果表明,模型规模和训练程度均能提高准确性,链式思维有助于提升表现,而一致性在模型规模增大时显著改善。

EasyMath:一种针对小型语言模型的零-shot数学基准

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出了一种创新方法,通过学习器范式有效回收和重用小型语言模型。实验结果显示,该系统在财务和医疗领域显著优于传统大型语言模型,展现了其在特定领域的应用潜力。

Learner Models for Language: How Specialized Small Language Models Can Make a Big Impact

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-19T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码