LLM 间在不泄露私人信息的情况下是否可能相互协助?
原文中文,约300字,阅读约需1分钟。发表于: 。本研究通过引入隐私保护技术,展示了在具有敏感数据访问权限的情况下,将级联系统应用于机器学习模型中的可行性,并提出了减少信息泄露风险的两种隐私度量方法。同时,通过运用社交学习范式,展示了在多个数据集上,相较于非级联基线,我们的方法不仅最小化了隐私损失,还提高了任务性能。
这篇文章介绍了一种名为“社交学习”的框架,用于在大型语言模型中以隐私保护的方式共享知识。作者评估了两种知识传递方法,通过生成抽象提示或合成示例来教授任务,并在多个数据集上进行了评估。结果表明,使用这些方法的性能与使用原始标签和提示的结果相当。这项工作证明了社交学习在语言模型中的可行性,并强调了尚未开发的领域的重要性。