小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
Meta AI发布EUPE:一款参数量低于1亿的紧凑型视觉编码器,可同时处理各种视觉任务

Meta公司推出了一种紧凑型视觉编码器EUPE,能够同时处理多种视觉任务。它采用“先扩大规模,再缩小规模”的方法,将多个专家模型的知识整合到一个代理模型中,并提炼出高效的学生模型,从而解决边缘设备计算资源不足的问题。

Meta AI发布EUPE:一款参数量低于1亿的紧凑型视觉编码器,可同时处理各种视觉任务

实时互动网
实时互动网 · 2026-04-08T02:22:37Z
从RTX到Spark:NVIDIA加速Gemma 4以实现本地智能AI

谷歌Gemma 4系列推出小型高效模型,优化NVIDIA GPU性能,支持推理、编码和多模态交互,适用于边缘设备和高性能GPU,推动本地智能助手的发展。

从RTX到Spark:NVIDIA加速Gemma 4以实现本地智能AI

NVIDIA Blog
NVIDIA Blog · 2026-04-02T16:15:58Z

MoteDB v0.1.4 发布,全球首款面向具身智能的 AI 嵌入式数据库,支持多模态数据,内存占用仅 35MB,查询延迟≤50ms,适用于家庭机器人和 AR 眼镜等边缘设备。

MoteDB v0.1.4 发布:面向具身智能的 AI 原生嵌入式数据库

Rust.cc
Rust.cc · 2026-04-02T15:06:38Z
阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

阿里巴巴通义千问团队推出适合边缘设备的小型模型,参数范围从0.8B到9B,强调以少量算力实现高智能。新模型在架构和数据质量上进行了优化,未来将推出更小的基础模型。

阿里巴巴通义千问团队继续推出小模型 9B参数能力甚至超过120B的开源同行

蓝点网
蓝点网 · 2026-03-03T00:30:06Z
大模型蒸馏:小型快速AI的实用指南

大模型在基准测试中表现优异,但推理成本高。模型蒸馏通过知识转移压缩模型,既保持准确性又降低成本,适合边缘设备。本文介绍了蒸馏的原理、应用场景及与其他优化技术的结合,以提高LLM应用的效率和性能。

大模型蒸馏:小型快速AI的实用指南

Redis Blog
Redis Blog · 2026-02-11T00:00:00Z

MoteDB 是全球首款面向具身智能的 AI 嵌入式数据库,专为家庭机器人和 AR 眼镜等边缘设备设计,支持多模态数据的统一存储与查询,具备低延迟检索和强一致性数据语义。

用rust 写了一个多模态数据库,欢迎大家使用评价

Rust.cc
Rust.cc · 2026-01-17T15:47:45Z
WASI 1.0:2026年你将不会察觉WebAssembly无处不在

WebAssembly在Wasm 3.0和组件模型发布后取得显著进展,预计2026年2月发布WASI 0.3.0。这一标准化将使WebAssembly逐步取代不适合某些应用的容器,特别是在边缘设备和无服务器环境中。WebAssembly已在多个环境中稳定运行,未来将支持更高层次的抽象和API,以促进开发者的使用。

WASI 1.0:2026年你将不会察觉WebAssembly无处不在

The New Stack
The New Stack · 2026-01-05T19:00:08Z
LiteRT - 一种高性能、可扩展的轻量级深度学习推理运行时用于…

LiteRT是谷歌基于TensorFlow Lite开发的轻量级推理运行时,适用于资源受限的边缘设备。V1兼容经典TFLite API,V2引入异步执行和自动加速器选择,支持多平台。其主要特点包括跨平台支持、硬件加速、异步高效I/O和生态系统兼容性,适合移动实时推理、嵌入式设备和生成模型加速。

LiteRT - 一种高性能、可扩展的轻量级深度学习推理运行时用于…

云原生
云原生 · 2025-11-26T04:02:48Z

Mariner Linux 是微软于2020年推出的开源轻量级Linux发行版,专为云服务和边缘设备设计,具有精简内核、高安全性和低资源占用的特点,支持虚拟机和容器。它使用 tdnf 作为包管理器,适合边缘计算和云原生应用。

Mariner Linux 详解:微软开源的轻量级云边操作系统

极客技术博客’s Blog
极客技术博客’s Blog · 2025-11-16T10:00:12Z
Liquid AI 发布 LFM2-VL-3B,为边缘设备带来 3B 参数的视觉语言模型

Liquid AI 发布了 LFM2-VL-3B,这是一个具有 30 亿参数的视觉语言模型,专用于图像文本到文本任务。该模型提高了准确率并保持了处理速度,支持高达 512×512 的图像输入,适合边缘设备使用,评估得分具有竞争力。

Liquid AI 发布 LFM2-VL-3B,为边缘设备带来 3B 参数的视觉语言模型

实时互动网
实时互动网 · 2025-10-27T02:58:19Z
人工智能的转折点不在云端,而在边缘

AI模型开发已达到转折点,边缘设备能够运行多种语言模型,但大型语言模型面临挑战。Edge Impulse的CEO指出,工业环境需要更高的可靠性和投资回报。小型语言模型和视觉语言模型在边缘应用中逐渐成熟,能够进行复杂的视觉分析。

人工智能的转折点不在云端,而在边缘

The New Stack
The New Stack · 2025-10-26T15:00:02Z
高通描绘人工智能从云端到边缘的愿景

高通提出AI工作负载将在云端与边缘设备间混合运行,未来依赖6G技术。CEO Amon强调边缘设备的重要性,认为其能提供个性化和即时体验。骁龙8 Elite Gen 5和Snapdragon X2 Elite系列处理器将增强AI处理能力,目标为高端市场。

高通描绘人工智能从云端到边缘的愿景

实时互动网
实时互动网 · 2025-09-25T03:44:49Z
为移动设备规划能够处理AI的芯片

Ryan与Arm的Geraint North讨论了生成性AI对芯片设计的影响,以及Arm在灵活CPU架构设计和边缘设备上优化大型语言模型的挑战。Arm新推出的Lumex CSS平台旨在支持高效的AI工作负载。

为移动设备规划能够处理AI的芯片

Stack Overflow Blog
Stack Overflow Blog · 2025-09-12T04:40:00Z
NVIDIA AI 发布 Jet-Nemotron:速度提升 53 倍的混合架构语言模型系列,可降低大规模推理成本 98%

NVIDIA发布了Jet-Nemotron模型系列,利用后神经架构搜索技术显著提升了大语言模型的生成吞吐量,达到53.6倍,同时保持或超越准确率。这一创新降低了计算和内存成本,使得边缘设备的大规模部署成为可能,提升了AI应用的经济性和效率。

NVIDIA AI 发布 Jet-Nemotron:速度提升 53 倍的混合架构语言模型系列,可降低大规模推理成本 98%

实时互动网
实时互动网 · 2025-08-27T02:27:39Z

清华大学与面壁智能推出的MiniCPM-V 4.0端侧大模型,具备强大的图像理解能力,参数减少至4.1B,适用于移动设备,提升用户体验,推动AI在边缘设备的应用。

性能赶超GPT-4.1-mini!MiniCPM-V 4.0达端侧图像模型新高度;HelpSteer3让AI回应更接近人类思维

HyperAI超神经
HyperAI超神经 · 2025-08-18T03:04:12Z
Qdrant Edge:嵌入式AI的向量搜索

Qdrant Edge是一个轻量级的嵌入式向量搜索引擎,专为边缘设备设计,满足低延迟和资源限制的需求。它支持机器人、移动设备和物联网的实时推理与决策,提供同步搜索和索引功能,适合无网络环境下的AI应用。

Qdrant Edge:嵌入式AI的向量搜索

Qdrant - Vector Database
Qdrant - Vector Database · 2025-07-29T00:00:00Z
通过ExecuTorch加速Meta应用家族中的设备端机器学习

ExecuTorch是Meta开发的边缘设备PyTorch推理框架,支持在Instagram、WhatsApp、Messenger和Facebook等应用中高效运行机器学习模型,提升性能、隐私和延迟,推动产品创新。

通过ExecuTorch加速Meta应用家族中的设备端机器学习

Engineering at Meta
Engineering at Meta · 2025-07-28T20:30:33Z
状态空间模型可以在低功耗边缘计算中启用人工智能

在2025年嵌入式视觉峰会上,BrainChip首席技术官Tony Lewis介绍了状态空间模型(SSM),该模型在低功耗环境中实现了大语言模型(LLM)能力。SSM通过仅利用最后一个令牌生成输出,克服了变压器模型的上下文限制。BrainChip的TENN模型在0.5瓦特下运行,具有1亿参数,能在100毫秒内返回结果,展现了在边缘设备上的应用潜力。

状态空间模型可以在低功耗边缘计算中启用人工智能

InfoQ
InfoQ · 2025-07-24T14:00:00Z
SECO 推出应用中心,加速边缘 AI 的采用

Seco推出应用程序中心,简化边缘设备上的AI开发与部署,提供150种AI/ML应用,支持多种硬件架构,旨在解决硬件碎片化和软件集成问题,推动工业自动化、医疗和零售等领域的智能技术应用。

SECO 推出应用中心,加速边缘 AI 的采用

实时互动网
实时互动网 · 2025-07-18T02:45:43Z
Liquid AI 开源 LFM2:新一代边缘 LLM

Liquid AI 发布了第二代 Liquid Foundation 模型 LFM2,显著提升了设备端 AI 性能,尤其在实时应用中的解码和预填充速度。LFM2 采用混合架构,结合卷积和注意力机制,训练速度提高三倍,支持毫秒级延迟和数据隐私,适用于多种边缘设备。

Liquid AI 开源 LFM2:新一代边缘 LLM

实时互动网
实时互动网 · 2025-07-15T02:28:08Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码