虚假特征多样化提高离域泛化

原文约300字,阅读约需1分钟。发表于:

通过理论分析和实证研究,我们发现在处理超越分布数据的机器学习任务中,利用多样的偶然特征进行加权模型集成可以显著提高整体的超越分布泛化性能,而不同于传统观点所认为的学习不变特征的方法。此外,我们提出了一种名为 BAlaNced averaGing (BANG) 的方法,可以有效修复原有方法 WiSE-FT 在超越分布情况下的过度自信问题,进一步提升其超越分布性能。

本文介绍了一种名为特征增强训练(FAT)的方法,通过保留已经学习到的特征并增加新的特征来强制模型学习所有有用的特征,并在不同子集的训练数据上执行保留和增强操作。实验表明,FAT有效地学习更丰富的特征并持续改善OOD性能。

相关推荐 去reddit讨论