本研究提出了一种名为Hindered Transformer (HiT)的新架构,旨在解决视觉变换器在图像分类中的可解释性问题。该方法通过重新设计变换器,将补丁影响解析为补丁级别信息的线性组合,展现出良好的可解释性与性能平衡。
本研究提出TrimLLM方法,通过逐层丢弃减少大语言模型的深度,提升推理速度,最高可达5.7倍,同时在60%模型压缩比下保持准确性,解决了性能、延迟与隐私的平衡问题。
本研究提出了一种基于$f$-散度最小化的锐度感知优化方法(DiM),旨在解决半监督医学图像分割中模型对数据集分布差异的忽视问题,从而增强模型的稳定性与适应性,提升源数据集与目标数据集的性能平衡。
本研究提出了BitStack,一种无训练的权重压缩方案,旨在解决大语言模型在本地设备上的内存限制问题。该方法动态调整模型大小,实现内存使用与性能的平衡,实验结果显示在极端压缩比下仍能超越现有基准。
该研究提出了SG-ZSL范式,解决了数据隐私和模型版权问题。通过教师模型、学生模型和生成器的协作,实现了高效训练和性能平衡。在ZSL和GZSL任务中表现优越,具有鲁棒性和效率。
完成下面两步后,将自动完成登录并继续当前操作。