本研究提出了一种基于影响函数的群体鲁棒样本重标定方法,旨在提高机器学习模型在子群体比例变化时的鲁棒性。该方法通过优化无群体标签数据的权重,提升模型性能,具有理论可靠性和实践高效性,优于传统方法。
本研究提出了一种基于影响函数的数据归因评估框架,旨在解决元学习在少样本学习中的训练数据问题,从而提高训练效率和可扩展性。
本研究探讨了最终训练模型在数据归因中的挑战,提出了一种测量模型对训练实例敏感性的方法,并统一了不同梯度方法的理论框架。结果表明,一阶方法的近似质量在进一步训练后下降,而影响函数方法的近似质量更稳定但整体较低。
本研究提出了一种Δ-影响方法,通过影响函数追踪并剔除受污染的训练数据。实验结果表明,该方法在多种攻击场景下优于现有的消除方法,有效应对数据毒化问题。
本研究探讨了多模态大语言模型中的失配和误标问题,提出了一种新颖的扩展影响函数,以更准确地评估数据对模型对齐的影响,从而提升模型的透明度和可解释性。
研究分析了影响函数在大型语言模型中的应用,效果不佳,原因包括近似误差、微调不确定性和模型参数变化与行为缺乏关联。建议探索其他方法识别关键样本以推动研究。
完成下面两步后,将自动完成登录并继续当前操作。