本研究探讨了视觉-语言模型(VLMs)与大型语言模型(LLMs)之间的感知与推理机制,提出了跨模态模型融合的方法。结果表明,模型融合有效地将LLMs的推理能力转移至VLMs,且感知能力主要集中在早期层,而推理能力在中后期层得到增强。
本研究提出了一种统一多任务学习与模型融合的方法,以提高语言模型的防护效率。通过生成特定任务数据,训练出更小且性能优越的分类器,显著提升了对不安全和安全行为的检测能力。
中国移动九天人工智能团队自2013年成立,专注于AI技术研发,拥有800多名研发人员。在文本生成领域,该团队提出了多属性模型融合策略,有效解决属性冲突问题,提升了可控文本生成效果。
本研究提出了一种模型融合方法,显著提升了泰语大型语言模型的推理能力,达到DeepSeek R1水平。
本文提出了一种名为版权保护模型融合(CP-Fuse)的方法,旨在解决语言模型重现训练数据中版权所有材料的问题。通过在推理时结合不同版权材料集的模型输出,CP-Fuse显著降低了版权材料的复制风险,同时保持文本和代码生成的质量,并可与其他保护措施无缝集成。
本研究提出了一种新型模型融合技术,利用多目标贝叶斯优化解决微调预训练语言模型的最佳选择问题,显著提升多个下游任务的性能。
通过模型融合,将预训练适配器高效地整合到单一模型,以提高适配器调优的性能。MerA方法在两个预训练语言模型上实现了显著的性能提升,并通过引入“同路径”设置进一步增加了模型的容量,超越全微调和适配器调优的表现。
完成下面两步后,将自动完成登录并继续当前操作。