小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
OpenClaw通过CLI绕过Claude API限制新玩法曝光

OpenClaw通过Claude Code CLI绕过API限制,实现任务分发。小型模型处理简单任务,大型模型负责复杂工作。这种架构降低了成本,但缺乏上下文理解,不适合全能管家角色。

OpenClaw通过CLI绕过Claude API限制新玩法曝光

极道
极道 · 2026-04-06T23:53:00Z
微软最新的Phi-4推理模型认为,规模并非一切

微软的Phi-4推理模型探索小型模型在低计算成本下与大型AI模型的竞争能力。该模型结合文本和图像处理,注重高质量数据和高效训练,旨在提升推理能力,而非单纯追求模型规模。

微软最新的Phi-4推理模型认为,规模并非一切

The New Stack
The New Stack · 2026-03-10T19:51:50Z
阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

阿里巴巴通义千问团队推出适合边缘设备的小型模型,参数范围从0.8B到9B,强调以少量算力实现高智能。新模型在架构和数据质量上进行了优化,未来将推出更小的基础模型。

阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

蓝点网
蓝点网 · 2026-03-03T00:30:06Z
一个小型自回归程序合成系统,支持受控实验

Cadmus系统研究小型模型在真实程序完成中的潜力,包含整数虚拟机和多样化任务的数据集。该系统以低成本进行训练,适用于程序完成和推理等研究。Cadmus模型在简单整数算术任务上超越GPT-5,显示出小模型在复杂推理中的优势,避免了大模型的未知偏差。

一个小型自回归程序合成系统,支持受控实验

Apple Machine Learning Research
Apple Machine Learning Research · 2026-02-13T00:00:00Z
你无法解雇一个机器人:关于AI生成内容和你工作的直言不讳的真相

Matan-Paul Shetrit强调,使用AI的责任在于用户而非AI。尽管AI生成内容,最终责任仍在于人类。他指出小型专用AI模型在降低成本、提高准确性和速度方面的重要性。

你无法解雇一个机器人:关于AI生成内容和你工作的直言不讳的真相

The New Stack
The New Stack · 2026-02-11T23:17:52Z
演讲:语言人工智能的生态与经济实践

Jade Abbott是Lelapa AI的CTO,专注于非洲语言AI。她指出非洲有2000多种语言,许多人不讲英语,并面临电力不足和数据中心匮乏的问题。她强调可持续性的重要性,呼吁开发小型高效模型,以满足当地需求,促进语言多样性和公平性。

演讲:语言人工智能的生态与经济实践

InfoQ
InfoQ · 2025-12-24T10:27:00Z
新款Claude Haiku 4.5模型承诺以三分之一的成本提供更快的性能

Anthropic发布了Claude Haiku 4.5,定位为小型快速模型,性能与Claude Sonnet 4相当,但成本仅为其三分之一,速度超过两倍。该模型具备混合推理能力,支持快速回答和扩展思考,用户可查看推理过程。经过多种数据清洗和过滤训练,确保安全性和准确性,开发者可通过多个平台访问该模型。

新款Claude Haiku 4.5模型承诺以三分之一的成本提供更快的性能

InfoQ
InfoQ · 2025-11-12T03:15:00Z
JavaScript库在浏览器中运行机器学习模型

朱利安·威尔基森-杜兰创建了开源机器学习库AsterMind-ELM,旨在将机器学习引入浏览器。他认为前端无需庞大的参数和内存即可实现实用功能。该库使用JavaScript编写,支持快速训练和实时应用,适合开发者在浏览器中创建小型模型。

JavaScript库在浏览器中运行机器学习模型

The New Stack
The New Stack · 2025-10-08T18:00:58Z

本研究探讨了大规模语言模型(LLM)与小型模型(SM)协作的潜力,以应对LLM对数据和计算资源的高需求。提出了一种新方法,加速LLM在特定领域的适应,并强调基于真实数据集的多目标基准研究的重要性。

Harnessing the Collaborative Power of Large and Small Models to Address Domain Tasks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-24T00:00:00Z

OpenAI计划下周发布改进版GPT-4.1及多个小型模型,如GPT-o4-mini、GPT-o4-mini-high和GPT-o3,这些模型体积小、响应快,适合简单推理。

OpenAI计划推出GPT-4o多模态模型的改进版本GPT-4.1 包含Mini版和Nano版

蓝点网
蓝点网 · 2025-04-11T00:30:32Z

本研究提出了一种知识指令方法,通过指令微调来解决大型语言模型在特定领域信息不足的问题,提升模型的事实记忆、减少遗忘并增强理解能力,适用于小型模型的数据生成。

Knowledge Instructions: Effectively Continuing Pre-training from Limited Data Using Instructions

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-08T00:00:00Z

本研究探讨了宪法AI在小型模型(如LLaMA 3-8B)中的应用,发现其能有效提升模型的无害性,但有用性有所下降。同时,小型模型在自我改进方面面临挑战,出现崩溃迹象。

Constitution or Collapse? Exploring Constitutional AI and LLaMA 3-8B

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z

本研究探讨了机器翻译的便利性、潜在副作用和风险,强调小型高质量模型和预训练调优在气候变化中的低碳足迹及其在危机情况下的生命拯救潜力。

Sociotechnical Effects of Machine Translation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-26T00:00:00Z
为什么红帽认为人工智能的未来是小型语言模型

大型语言模型(LLM)不适合所有企业需求,企业更需要可定制的小型模型。小型模型成本效益高,能够访问私有数据,并可作为工作流的“构建块”。InstructLab项目通过合成数据生成和简单命令,帮助企业训练小型模型,并支持开源以避免知识产权问题。

为什么红帽认为人工智能的未来是小型语言模型

The New Stack
The New Stack · 2025-03-11T19:30:44Z
DeepSeek推出后,移动端AI风向要变

下一波 AI 创新将集中在小型模型的端侧应用。高通的 AI 白皮书指出,端侧小模型在性能、数据安全和应用多样性方面具有优势。技术进步推动小模型快速发展,成为企业和开发者的首选,尤其在手机等终端上表现突出。高通通过高效的芯片和软件支持,引领端侧 AI 变革,未来将推动更多行业应用。

DeepSeek推出后,移动端AI风向要变

机器之心
机器之心 · 2025-03-03T13:07:09Z
DeepSeek 对边缘 AIoT 的影响

DeepSeek-V3和R1标志着AI行业向小型、特定任务的开源模型转变,促进边缘设备创新。小型模型在数据隐私和实时决策中具优势,优化基础模型可提升边缘计算效率。尽管面临挑战,DeepSeek的技术进步为云-边缘混合部署提供了可能,推动AIoT发展。

DeepSeek 对边缘 AIoT 的影响

实时互动网
实时互动网 · 2025-02-18T06:19:36Z

本研究提出了一种新方法,通过程序生成的算术数据集提升小型模型的数学推理能力。实验结果表明,中间微调与指令微调的结合显著增强了小模型的算术能力。

Integrating Arithmetic Learning to Enhance Mathematical Reasoning in Small Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-18T00:00:00Z
开源人工智能已经开始投入生产

开源人工智能正在快速发展,全球开发者利用开源模型构建定制解决方案。调查显示,许多企业尝试使用开源AI模型,尤其是小型模型在特定任务中表现优异。开源模型提供更大的灵活性和可定制性,但定制解决方案需要更多资源。未来,开发者可能会结合多种小型模型以完成不同任务。

开源人工智能已经开始投入生产

The GitHub Blog
The GitHub Blog · 2025-01-28T17:00:38Z

本研究通过将大型语言模型的情感理解提炼至小型模型,解决了细粒度情感分析的高成本问题,实验结果显示提炼后的模型F1得分提升了6.00%。

从大型语言模型提炼细粒度情感理解

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-24T00:00:00Z
Google DeepMind 推出“SALT”:一种使用 SLM 高效训练高性能大型语言模型的机器学习方法

大型语言模型(LLM)在对话代理和内容创建中至关重要,但训练成本高。谷歌研究院提出SALT方法,通过小型模型(SLM)辅助LLM训练,降低计算需求28%,提升模型质量。SALT采用两阶段流程,初期利用SLM指导LLM,后期进行自监督学习,确保LLM专注于高价值数据,为资源有限的机构提供新的训练思路。

Google DeepMind 推出“SALT”:一种使用 SLM 高效训练高性能大型语言模型的机器学习方法

实时互动网
实时互动网 · 2024-12-20T03:23:45Z
  • <<
  • <
  • 1 (current)
  • 2
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码