小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
IntelliJ IDEA 开源代码库:构建和定制你的开发环境 | 开源日报 No.700

intellij-community 是 IntelliJ IDEA 的开源代码库,支持 IDE 的开发与定制,提供源码和构建指导。TTPForge 是网络安全框架,模拟攻击者活动以提升检测能力。gpt-tokens 用于计算 OpenAI GPT 消息的令牌消耗,适合开发者。distill-sd 是知识蒸馏模型,提供快速图像生成。react-admin-ui 是构建管理界面的 React 组件库。

IntelliJ IDEA 开源代码库:构建和定制你的开发环境 | 开源日报 No.700

开源服务指南
开源服务指南 · 2025-08-19T07:35:47Z
DiceHuBERT:基于自监督学习目标的HuBERT知识蒸馏

本文介绍了DiceHuBERT,一种用于压缩HuBERT的知识蒸馏框架。与传统方法不同,DiceHuBERT通过直接替换原始模型为学生模型,利用HuBERT的自蒸馏机制进行训练。实验结果显示,DiceHuBERT在音素识别和自动语音识别(ASR)性能上显著优于现有方法,提升超过21%和14%。

DiceHuBERT:基于自监督学习目标的HuBERT知识蒸馏

Apple Machine Learning Research
Apple Machine Learning Research · 2025-08-08T00:00:00Z
用于设备导向语音检测的自适应知识蒸馏

设备导向语音检测(DDSD)是一项二元分类任务,旨在区分用户对语音助手的查询与背景对话。本文提出了一种新型知识蒸馏方法,通过从大型预训练声学编码器中转移知识,显著提升DDSD的准确性。实验结果显示,该方法在关键词和无关键词调用中,分别提高了26%和19%的错误率,并在不同模型架构中展现出良好的泛化能力。

用于设备导向语音检测的自适应知识蒸馏

Apple Machine Learning Research
Apple Machine Learning Research · 2025-08-08T00:00:00Z
宣布在 Amazon SageMaker AI 中推出 Amazon Nova 定制功能

Amazon SageMaker AI为Amazon Nova推出定制功能,支持模型训练的各个阶段。客户可根据需求选择有监督微调、对齐、持续预训练和知识蒸馏等技术,以优化模型性能,满足特定的准确性和成本要求。

宣布在 Amazon SageMaker AI 中推出 Amazon Nova 定制功能

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-07-18T04:06:18Z

本研究提出了DeepKD框架,旨在解决知识蒸馏中目标类与非目标类知识冲突及低置信度噪声问题。通过双重解耦和自适应去噪,显著提升了知识转移效果。

DeepKD: A Deep Decoupling and Denoising Knowledge Distillation Trainer

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究提出了UWSAM模型和UIIS10K数据集,旨在解决水下实例分割中的技术不足。通过知识蒸馏和自动生成水下提示,显著提高了分割的准确性和效率,推动了水下视觉任务的发展。

UWSAM: Underwater Instance Segmentation Based on 'Segment Anything Model' and Its Large-scale Benchmark Dataset

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究探讨了问答系统中链式推理生成的可解释追踪与最终性能之间的关系。研究表明,基于规则的问题分解方法并不总能确保模型输出正确答案,挑战了知识蒸馏的假设。

Interpretable Traces, Unexpected Outcomes: Investigating the Disconnect in Trace-Based Knowledge Distillation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出了一种基于时间序列的知识蒸馏策略,用于锂离子电池容量衰减预测。经过微调的Battery-Timer模型展现出强大的零-shot泛化能力,显著提升了专家模型的多条件泛化能力。

Knowledge Distillation of Foundation Models for Battery Capacity Degradation Prediction

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-13T00:00:00Z

UniME框架由格灵深瞳和阿里ModelScope等团队联合发布,刷新了MMEB训练榜纪录。该框架通过文本判别知识蒸馏和困难负样本增强微调,显著提升了多模态理解能力,适用于多种下游任务,并已开源。

开源即屠榜!UniME多模态框架登顶MMEB训练榜,刷新多项SOTA纪录

量子位
量子位 · 2025-05-09T09:12:05Z
如何在本地安装Falcon 3?

Falcon 3是阿布扎比技术创新研究所开发的高效开源AI语言模型,参数不超过100亿,适用于科学、数学和编程。该模型结合知识蒸馏和预训练技术,易于集成,适合开发者和研究人员。

如何在本地安装Falcon 3?

DEV Community
DEV Community · 2025-05-08T05:23:06Z

本文探讨了大语言模型(LLMs)在资源受限环境中的优化问题,综述了知识蒸馏、模型量化和模型剪枝等压缩技术,提供了有效的解决方案和成功案例,为研究者和从业者在边缘设备上优化LLM提供参考。

Optimizing LLMs for Resource-Constrained Environments: A Survey of Model Compression Techniques

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-05T00:00:00Z

DEEVISum(蒸馏早期退出视觉语言模型用于摘要)旨在提升视频分段摘要的性能与效率。通过多模态提示和多阶段知识蒸馏,DEEVISum在保持性能的同时显著降低推理时间,F1得分达到61.1,展现出与更大模型的竞争力。

用于视频摘要的早期退出和多阶段知识蒸馏的视觉语言模型

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-30T00:00:00Z

本研究质疑知识蒸馏的安全性,提出通过在蒸馏数据集中嵌入后门触发器的对抗样本进行后门攻击的方法。实验表明,该方法能够在不影响教师模型的情况下,成功影响学生模型,揭示了知识蒸馏中的安全漏洞。

How to Conduct Backdoor Attacks on Knowledge Distillation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-30T00:00:00Z

本研究提出了群体相对知识蒸馏(GRKD)框架,解决了现有知识蒸馏方法忽视教师模型关系性归纳偏置的问题。GRKD通过关注类别之间的相对排名提炼教师知识,实验表明其在细粒度分类任务中具有更优的泛化能力。

Group Relative Knowledge Distillation: Learning from Teacher's Relational Inductive Bias

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z

本研究提出了一种新的知识蒸馏方法——头尾关注的KL散度(HTA-KL),旨在缩小脉冲神经网络(SNN)与人工神经网络(ANN)之间的性能差距。该方法通过动态区分高低概率区域并分配适应性权重,提升知识转移的平衡性,最终在多个数据集上表现优于现有方法。

Head-Tail-Aware KL Divergence in Knowledge Distillation for Spiking Neural Networks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-29T00:00:00Z
CVPRW 2025 | 高效图像超分辨率中的蒸馏监督下的卷积低秩适应

本文介绍了上海交通大学与传音团队合作的DSCLoRA模型,该模型在CVPR NTIRE 2025高效超分辨率挑战赛中获第一名。DSCLoRA结合低秩适应和知识蒸馏技术,显著提升超分辨率性能,且未增加计算成本。通过引入ConvLoRA,DSCLoRA在多个基准数据集上表现优异,展示了模型复杂度与性能的良好平衡。

CVPRW 2025 | 高效图像超分辨率中的蒸馏监督下的卷积低秩适应

实时互动网
实时互动网 · 2025-04-23T10:07:52Z

本研究探讨了知识蒸馏方法在资源受限环境中对小型语言模型性能和可解释性的影响,提出的新方法显著提升了模型表现,为大规模语言模型的应用奠定了基础。

Honey, I Shrunk the Language Model: The Impact of Knowledge Distillation Methods on Performance and Explainability

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z

本研究提出双空间知识蒸馏(DSKD)框架,解决了白盒知识蒸馏在输出空间和词汇不兼容性的问题。通过统一模型预测头和精确标记对齐算法,DSKD显著提升了知识蒸馏效果,实验结果表明其在多个基准测试中优于现有方法。

A Dual-Space Framework for General Knowledge Distillation in Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-15T00:00:00Z

本研究提出了一种资源高效的波束预测方法,解决了传统方法在快速变化通信环境中的适应性不足。通过知识蒸馏将多模态网络知识转移至单模态网络,并结合自动驾驶模拟器生成的数据,显著降低计算复杂度,同时保持预测准确性。模拟结果显示,在使用教师网络10%参数的情况下,单模态模型性能达到94.62%。

Resource-Efficient Beam Prediction and Multimodal Realistic Simulation Framework in mmWave Communications

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z

本文提出了GOTHAM框架,旨在解决图数据分析中的节点分类问题,特别是在标签不足的情况下处理新类。该框架结合原型表示和知识蒸馏技术,有效应对少量或无标签的新类,实验结果表明其在多种任务中具有良好的适应性和有效性。

GOTHAM: Graph Class Incremental Learning Framework under Weak Supervision

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-07T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码