本研究针对统一多模态大型语言模型在图像生成中的性别和种族偏见,提出了“定位-修复”策略来审计偏见,发现偏见主要源于语言模型,并引入平衡偏好模型以减少偏见。强调了对U-MLLMs的全面解读和去偏见策略的重要性。
完成下面两步后,将自动完成登录并继续当前操作。