本研究分析了多文档摘要模型在跨领域应用中的失败问题,评估了不同训练方法的模型表现,揭示了域转移失败的原因,并质疑了流行摘要指标的适用性。结果表明,模型在处理与训练领域不同的文档时,真实性、目标偏差和摘要质量显著下降。
本文提出了FairDomain,首次系统性研究算法在域转移下的公平性。通过自注意力机制调整特征重要性,提高各种算法的公平性。同时,公开了第一个关注公平性的domain-shift数据集。广泛评估表明,FIA在所有域转移任务中显著增强了模型的公平性和性能。
较大的网络比较小的网络更容易丧失稳健性,压缩网络在面对域转移和对抗扰动时的稳健性较低。知识蒸馏得到的紧凑网络在面对域转移时比剪枝网络更稳健。后训练量化是一种可靠的方法,能显著提高稳健性,胜过剪枝和蒸馏模型的稳健性。
完成下面两步后,将自动完成登录并继续当前操作。