本研究提出了一种新方法FedSB,旨在解决联邦学习中的数据异质性问题。通过标签平滑和均衡去中心化训练,提升了模型的跨领域泛化能力,实验结果表明其优于现有方法。
通过大规模预训练语言模型引入了名为Neural PG-RANK的新型训练算法,使用Plackett-Luce排序策略实例化语言模型,提供了合理的端到端训练方法,并与下游决策质量相统一。实验证明,Neural PG-RANK在领域内表现出卓越性能提升,并在下游问答任务中实现了跨领域泛化。
该研究探讨了多模态仇恨迷因检测中的跨领域泛化挑战。研究发现,仅有具有仇恨性质的迷因文本能够使多模态分类器在不同领域中泛化,而图像对特定训练数据集非常敏感。通过黑盒解释,确定了文本模态的重要贡献程度为83%,引入迷因图像标题后减少至52%。评估显示,文本混淆因素性能高于图像混淆因素,平均ΔF1为0.18。
完成下面两步后,将自动完成登录并继续当前操作。