小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI

本研究提出一种两阶段随机方法,解决联邦微调大型语言模型中的信息泄漏问题,实现端到端的隐私保护。结果表明,该方法在效率和准确性上显著提升,并进行了全面的隐私分析。

DR-编码器:使用随机先验对大型语言模型进行差分隐私的低秩梯度编码

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-12-22T00:00:00Z

本研究探讨在高风险应用中使用黑箱机器学习模型时,如何平衡透明性、可解释性和用户隐私。通过私密信息检索技术,提出方案保护用户隐私并精确获取反事实解释。尽管如此,数据库仍可能泄漏信息,研究提出减少泄漏的策略以提高隐私保护。

Private Counterfactual Retrieval

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-10-17T00:00:00Z

该研究调查了机器学习模型在更新数据集后的脆弱性,发现访问两个模型快照会导致更高的信息泄漏。罕见属性值的数据记录更容易受到攻击,重复更改会在训练模型上留下更大的痕迹。这些结果表明机器学习模型在更新环境下容易受到属性推理攻击的威胁。

理解机器学习攻击中的数据重要性:有价值的数据是否造成更大伤害?

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2024-09-05T00:00:00Z

本文介绍了一种利用联邦学习模型信息泄漏强化早期注入的单次后门攻击方法,通过两阶段攻击提高攻击的持久性和成功率。在 MNIST 数据集上的实验表明,该方法比现有的后门攻击更具优势。

通过双向选举和个体视角抵御联邦学习的后门攻击

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-09-28T00:00:00Z

本文提出了一个新的框架,用于处理可解释模型和知识,并证明在对可解释模型结构做出现实的假设的情况下,可以有效地计算重建的不确定性。通过比较精确学习算法和启发式学习算法关联的理论信息泄漏,说明了我们方法的适用性。结果表明,最优解释性模型通常更紧凑,泄露的关于训练数据的信息更少。

可解释模型的概率式数据集重建

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2023-08-29T00:00:00Z
  • <<
  • <
  • 1 (current)
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
友情链接: MOGE.AI 九胧科技 模力方舟 Gitee AI 菜鸟教程 Remio.AI DeekSeek连连 53AI 神龙海外代理IP IPIPGO全球代理IP 东波哥的博客 匡优考试在线考试系统 开源服务指南 蓝莺IM Solo 独立开发者社区 AI酷站导航 极客Fun 我爱水煮鱼 周报生成器 He3.app 简单简历 白鲸出海 T沙龙 职友集 TechParty 蟒周刊 Best AI Music Generator

小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码