本研究探讨了长上下文大语言模型(LCLMs)在隐私风险方面的不足,提出了六种有效的成员推断攻击策略,揭示了LCLMs的成员泄露风险。
本研究介绍了一种专门的基准测试LIConBench,评估了13个长上下文大语言模型在20K令牌长度下的表现。发现大部分模型受益于长上下文窗口,但在超过20K的上下文窗口下,除了GPT-4外,大部分模型表现下降。LIConBench可作为未来评估长上下文大语言模型的工具。
完成下面两步后,将自动完成登录并继续当前操作。