小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本文揭示了大型语言模型去学习中的核心集效应,发现仅需5%的遗忘数据即可有效维持去学习效果,从而简化了去学习操作。

Unlearning in Large Language Models Reveals Stronger-than-Expected Core Set Effects in Current Benchmarks

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-14T00:00:00Z

本研究提出了一种新方法,解决大型语言模型去学习过程中的可解释性问题。通过引入记忆去除难度指标,优化去学习算法,显著提高了效率和有效性。

Neuro-Inspired Explanations for Unlearning in Large Language Models: Sample-Level Unlearning Difficulty

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-09T00:00:00Z

本研究评估了大型语言模型的去学习有效性,比较了LLMU和RMU两种方法。结果表明,RMU在保持模型能力的同时效果更佳,但未实现真正的去学习。简单提示显著提高了去学习的准确性,揭示了现有方法的局限性。

真能忘记吗?大型语言模型去学习方法的黑箱评估

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-11-18T00:00:00Z

本研究提出SimNPO框架,通过不重新训练模型去除不必要数据影响,提高去学习效果。实验表明SimNPO在多个测试中表现优越。

简单的胜利:重新思考大型语言模型的负偏好优化去学习

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-09T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码