不稳定的不学习:扩散模型中概念复苏的隐性风险

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文研究了文本到图像的扩散模型,发现增量更新时存在漏洞:模型在无关图像上微调后,可能会重新学习之前遗忘的概念。实验分析了这一现象的成因和范围,提醒关注模型的安全性。

🎯

关键要点

  • 本文研究了文本到图像的扩散模型。
  • 发现增量更新过程中存在漏洞。
  • 模型在无关图像上微调后可能会重新学习之前遗忘的概念。
  • 通过实验分析了这一现象的成因和范围。
  • 提醒关注模型的安全性保障措施。
➡️

继续阅读