基于模型无关的少样本示例的生成图像起源归因
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本研究探索了预训练视觉-语言模型在智能生成图像的检测中的潜力。通过基于CLIP特征的轻量级检测策略,发现不需要大量特定领域数据集训练,仅利用少量示例图像即可展现出泛化能力,并在商业工具中具有高鲁棒性。在分布内数据上与SoTA相匹配,在分布外数据的泛化能力和受损/清洗数据的鲁棒性上有显著改进。
🎯
关键要点
-
本研究探索预训练视觉-语言模型在智能生成图像检测中的潜力。
-
基于CLIP特征开发了一种轻量级检测策略。
-
不需要大量特定领域数据集训练,仅利用少量示例图像即可展现泛化能力。
-
在Dalle-3、Midjourney v5和Firefly等商业工具中具有高鲁棒性。
-
在分布内数据上与SoTA相匹配。
-
在分布外数据的泛化能力上提高6%。
-
在受损/清洗数据的鲁棒性上实现了13%的显著改进。
🏷️
标签
➡️