Unlearning in Large Language Models Reveals Stronger-than-Expected Core Set Effects in Current Benchmarks
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本文揭示了大型语言模型去学习中的核心集效应,发现仅需5%的遗忘数据即可有效维持去学习效果,从而简化了去学习操作。
🎯
关键要点
- 本文揭示了大型语言模型去学习中的核心集效应。
- 仅需5%的遗忘数据即可有效维持去学习效果。
- 这一发现简化了去学习操作。
- 当前的去学习过程依赖于高影响力关键字,而非完整数据集。
➡️