小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
新技术使人工智能模型在学习过程中更加精简和快速

麻省理工学院等研究团队开发的CompreSSM方法在训练过程中压缩人工智能模型,避免了传统方法的性能损失。该方法通过控制理论识别模型的重要部分,提前剔除无用组件,使模型训练更小更快。研究显示,压缩模型在图像分类任务中保持了接近原始模型的准确性,训练速度提高了1.5倍。CompreSSM为现代状态空间模型的压缩提供了理论基础,未来有望成为标准方法。

新技术使人工智能模型在学习过程中更加精简和快速

MIT News - Computer Science and Artificial Intelligence Laboratory (CSAIL)
MIT News - Computer Science and Artificial Intelligence Laboratory (CSAIL) · 2026-04-09T13:00:00Z
有团队将智谱GLM-5从1.65TB压缩到241GB 256GB(内存+显存)即可在本地跑模型

智谱GLM-5模型已从1.65TB压缩至241GB,需256GB内存即可本地运行,支持256GB统一内存的Mac或24GB显存的PC。该模型在编码和聊天方面表现优异,提供更大的上下文窗口。

有团队将智谱GLM-5从1.65TB压缩到241GB 256GB(内存+显存)即可在本地跑模型

蓝点网
蓝点网 · 2026-02-13T05:50:31Z
轻量化 JavaScript 行为框架:简化 HTML 交互过程 | 开源日报 No.743

Skip 是一款用于简化 iOS 和 Android 应用开发的转译器,支持多模块管理,并与 Xcode 和 Android Studio 集成。Efficient-Computing 提供高效计算方法,支持模型压缩和自监督学习。nodejieba 是高效的中文分词库,支持多种算法。

轻量化 JavaScript 行为框架:简化 HTML 交互过程 | 开源日报 No.743

开源服务指南
开源服务指南 · 2025-09-29T07:35:34Z
演讲:大规模生成AI:它的应用、成本及如何减轻负担

马克·库尔茨讨论了大规模生成AI的现状与挑战,强调大语言模型(LLMs)在文本生成中的应用及其对企业的影响。他指出,尽管许多公司在探索LLMs,但只有少数原型能投入生产。通过使用vLLM等优化工具和模型压缩,企业可以降低成本并提高效率。成功部署依赖于准确性、速度和成本的平衡。

演讲:大规模生成AI:它的应用、成本及如何减轻负担

InfoQ
InfoQ · 2025-09-08T13:30:00Z
“超级权重”:单个参数如何决定大型语言模型的行为

苹果研究人员的论文指出,少量“超级权重”在大型语言模型(LLM)中对功能影响显著。识别这些权重有助于模型压缩,提升资源受限设备的性能。研究表明,保留超级权重和激活可显著改善压缩质量,推动未来研究。

“超级权重”:单个参数如何决定大型语言模型的行为

Apple Machine Learning Research
Apple Machine Learning Research · 2025-08-21T00:00:00Z
关于信息几何与模型压缩中的迭代优化:操作因子分解

深度学习模型参数不断增加,需要有效的压缩技术以适应资源有限的设备。本文探讨信息几何在模型压缩中的应用,重点分析操作因子分解。我们认为,许多成功的压缩方法隐含近似信息散度。在压缩预训练模型时,信息散度对提高零-shot准确率至关重要,而在微调时,模型的可训练性更为重要。我们证明了在软秩约束下,迭代奇异值阈值化的收敛性,并展示了通过软秩降低对现有方法的简单修改可以在固定压缩率下提高性能。

关于信息几何与模型压缩中的迭代优化:操作因子分解

Apple Machine Learning Research
Apple Machine Learning Research · 2025-07-25T00:00:00Z

本研究提出了一种结构化代理蒸馏框架,旨在将大型语言模型压缩为较小的学生模型,同时保持推理准确性和一致性。实验结果显示,该方法在多个基准测试中优于传统蒸馏和模仿学习,显著提高了模型压缩率并保持了性能。

Structured Agent Distillation of Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出了两种高效框架,利用模型压缩技术降低持续学习中的推理复杂度,平衡稳定性与适应性。实验结果表明,这些框架在准确性与复杂度之间取得了良好平衡,具有实际应用潜力。

Low-Complexity Inference in Continual Learning via Compressed Knowledge Transfer

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

本研究提出了一种安全驱动的量化框架,解决了资源受限设备上深度神经网络的模型压缩与性能保留问题。通过权重修剪和量化,优化模型复杂度,使模型大小减少60%,同时测试准确率提高2.5%。

Optimizing Deep Neural Networks with Secure Guided Self-Compression

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-01T00:00:00Z

本文研究了在稀缺和高度可变环境中,航空图像分类的符合预测方法。通过微调预训练模型,发现符合预测能够在复杂任务中提供有价值的不确定性估计,并强调模型压缩技术在资源受限环境中的潜力。

在稀缺和非约束环境中的航空图像分类:采用符合预测的方法

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-24T00:00:00Z

本研究提出了一种低功耗流式语音增强加速器,通过模型压缩和硬件优化,模型大小减少93.9%,实时推理功耗仅为8.08毫瓦,显著提升了效率和可用性。

A Low-Power Streaming Speech Enhancement Accelerator for Edge Devices

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-27T00:00:00Z
Pruna AI的AI效率框架现已开源

Pruna AI团队开发的pruna包旨在优化AI模型的压缩,提高效率和可靠性。该包可通过pip安装,支持模型压缩,节省内存和计算资源,欢迎参与和反馈。

Pruna AI的AI效率框架现已开源

DEV Community
DEV Community · 2025-03-20T12:24:56Z

该研究提出了一种新方法,结合模型压缩技术与抑制注意机制,以解决变换器语言模型的计算和能效问题。调整后的模型在自然语言处理基准测试中表现出竞争力,显示出提升效率的潜力。

InhibiDistilbert:基于ReLU和加法的变换器的知识蒸馏

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-20T00:00:00Z

本文讨论了机器学习专家Tim Dmer的讲座,重点在于量化技术如何提高基础模型的效率和可访问性。Dmer的研究旨在通过将模型从16位压缩到8位或4位,降低对高性能硬件的需求。他介绍了Kora方法,通过在16位适配器上进行4位微调,解决了大模型资源消耗过高的问题,并强调了处理异常值的重要性,以优化计算效率而不影响模型性能。

卡内基梅隆大学高级自然语言处理春季2025(15):量化技术(嘉宾:Tim Dettmers)

Josherich的博客
Josherich的博客 · 2025-03-14T00:00:01Z

本研究提出KV-Distill框架,旨在压缩标准Transformer中自注意力机制的KV缓存,显著减少上下文长度达99%,同时保持预训练模型的性能。实验结果表明,KV-Distill在提取任务中优于其他压缩技术。

KV-Distill: Nearly Lossless Learnable Context Compression Method for Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-13T00:00:00Z

msModelSlim支持多种模型压缩算法,如量化和稀疏压缩,帮助开发者高效部署DeepSeek模型。量化技术降低内存占用和计算需求,同时保持高精度。该工具已开源,适用于多个行业,推动AI技术的应用。

如何在保障精度的同时,轻量级部署DeepSeek?

华为云官方博客
华为云官方博客 · 2025-02-20T02:46:26Z

本文综述了视觉语言模型在资源受限的边缘设备上的应用挑战,重点讨论模型压缩和高效训练方法,提出了优化策略,并展示了其在医疗、环境监测和自主系统中的应用潜力。

Vision-Language Models for Edge Networks: A Comprehensive Survey

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-11T00:00:00Z

本研究分析了大语言模型中的异常值问题,定义并分类了三种异常值,探讨其与注意力机制的关系。研究发现,异常值由softmax操作引起,作为上下文感知缩放因子,消除异常值可加速收敛并改善模型压缩。

大语言模型中的系统异常值

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-10T00:00:00Z

本研究提出了一种新的自适应框架OE-FSMC,旨在解决因隐私和安全问题导致的类别不平衡。该框架通过整合易获取的超出分布数据,成功平衡了训练分布,并验证了其在提升模型压缩精度方面的有效性。

Model Compression Using Limited Class Imbalanced Samples: An Out-of-Distribution Exploration

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-09T00:00:00Z

知识蒸馏是一种模型压缩技术,通过将大型教师模型的知识迁移到小型学生模型中。其效果受教师模型选择、蒸馏方法、学生模型结构和训练过程等因素影响。改善方法包括选择稳定的教师模型、优化损失函数和调整温度参数。知识蒸馏与分馏相似,但因历史原因未改名。

为什么知识蒸馏后的模型表现有时会很差?

dotNET跨平台
dotNET跨平台 · 2025-02-03T00:03:40Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码