音频扩散模型已实现高质量音频合成,但参数优化不足。研究者提出Audio-SDS方法,结合预训练模型,优化音频表示,支持FM合成和源分离等任务,提升合成效果与文本提示的一致性,展示了数据蒸馏在音频领域的潜力。
深度求索于1月开源了DeepSeek-R1模型,提出数据蒸馏方案,通过小模型精调训练,效果与OpenAI o1-mini相当。飞桨框架3.0优化推理能力,支持高效部署,显著提升模型性能并降低成本。
上交大EPIC实验室提出的新数据蒸馏方法NFCM,使用2080Ti显卡仅需2GB内存,显著提升性能和速度。该方法将数据蒸馏转化为minmax优化问题,优化合成数据质量,适用于多个基准数据集,表现优异。
本研究提出FINDAP方法,旨在解决金融领域大语言模型的自适应后训练问题。通过识别核心能力和评估体系,采用创新的数据蒸馏方案,生成的Llama-Fin模型在多项金融任务中表现出色。
大型语言模型(LLMs)改变了与人工智能的互动方式,但API使用成本高。为降低令牌使用而不影响输出质量,提示压缩至关重要。本文介绍了微软研究人员的LLMLingua-2方法,通过数据蒸馏实现高效的任务无关提示压缩,降低成本同时保持性能。
完成下面两步后,将自动完成登录并继续当前操作。