本研究提出了一种名为深度神经损伤(DNL)的轻量级方法,通过翻转深度神经网络参数的符号位来引发准确性下降。研究表明,仅需翻转少量符号位即可造成显著的准确率损失,并探讨了应对此类攻击的防御策略。
本研究提出了一种轻量级方法,通过历时词相似度矩阵分析多个时间段的语义转变,克服了仅考虑相邻时间段变化的不足,能够深入分析持续的语义转变,并对表现相似的词进行无监督分类。
LLaMA-Excitor是一种基于轻量级方法的LLMs细调技术,能够更好地遵循指令并保持预训练知识。该方法在低质量指令遵循数据集的LLMs细调中表现出自适应分配额外关注的能力,并在多模态对齐需求下扩展为强大的视觉指令跟踪器。在评估中,LLaMA-Excitor是唯一实现显著改进的方法。在视觉指令调优方面,该方法在MSCOCO上实现了157.5 CIDEr的最新成果,并在ScienceQA上获得了与其他模型相当的性能。
该文介绍了一种提高最差群组准确性的方法,通过模型选择族群注释和少数类别注释,无需额外数据或注释。同时,作者提出了一种轻量级方法SELF,通过误分类或不一致性数据构建重新加权数据集,在四个基准测试中无需族群注释和少于3%的保留类别注释即可与DFR相媲美。
完成下面两步后,将自动完成登录并继续当前操作。