图引导视频视觉变换器(G$^2$V$^2$former):用于人脸反欺诈
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文介绍了一种新的方法,通过在视频层面上以度量为基础的方式来增强数据域广义化中反欺骗性能。研究结果显示,该方法在模型的稳定性和泛化能力方面取得了更好的结果,并能提升模型的泛化能力。通过在多个数据集上的评估,该方法在偏差、方差、HTER和AUC等指标上超过了现有的最先进方法。
🎯
关键要点
- 本文介绍了一种增强数据域广义化中反欺骗性能的新视角。
- 提出了一种在视频层面上以度量为基础的方法,用于优化模型的稳定性和泛化能力。
- 简单扩大模型的骨干网络并不能改善模型的不稳定性。
- 从贝叶斯的角度提出了一种集成骨干网络的方法,取得了更好的度量和欺骗准确度。
- 利用不确定性测量的优势,在训练过程中实现增强抽样以提升模型的泛化能力。
- 在OMC、CelebA-Spoof和SiW-Mv2数据集上评估,最终模型在偏差、方差、HTER和AUC等指标上超过了现有的最先进方法。
➡️