研究提出了一种解决文本到图像扩散模型偏见的方法,将公平性视为分布对齐问题。通过分布对齐损失和有偏微调技术,显著降低了性别、种族等偏见。即使只微调少量参数,也能有效减少偏见,并支持多样化的公平性视角。方法可扩展,能同时消除多个概念的偏见。研究希望推动AI的社会调整,并将共享代码和模型适配器。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: