T2ISafety:评估图像生成中的公平性、毒性和隐私的基准
📝
内容提要
本研究针对当前文本到图像(T2I)模型在安全性方面的不足,提出了T2ISafety这一安全基准,旨在评估模型在毒性、公平性和偏见等关键领域的表现。通过建立一个包含12个任务和44个类别的详细层级结构,并收集70K相关提示,研究揭示了现有模型在种族公平性、生成有害内容和隐私保护等方面的显著问题。
➡️
本研究针对当前文本到图像(T2I)模型在安全性方面的不足,提出了T2ISafety这一安全基准,旨在评估模型在毒性、公平性和偏见等关键领域的表现。通过建立一个包含12个任务和44个类别的详细层级结构,并收集70K相关提示,研究揭示了现有模型在种族公平性、生成有害内容和隐私保护等方面的显著问题。