本研究解决了从已训练的神经网络中删除特定训练数据的问题,尤其是数据持有者的遗忘权利。我们提出了一种新颖的修补方法,通过在原始神经网络上施加精心设计的“补丁”实现有针对性的“遗忘”,并且实验表明该方法在保持模型性能的同时,我们的方法在效率和内存消耗方面都具有竞争力。
本研究提出了FitPrune方法,解决了多模态大型语言模型中视觉标记冗余和计算负担过重的问题。实验证明,该方法能够显著减少计算复杂度,同时保持高性能。
完成下面两步后,将自动完成登录并继续当前操作。