PlagBench: 大型语言模型在抄袭生成和检测中的二元性探索
原文中文,约600字,阅读约需2分钟。发表于: 。最近的文献强调了大型语言模型(LLMs)与学术诚信相关的潜在风险,它们可以记忆部分训练实例并在生成的文本中无妥善归属地复制。此外,鉴于它们在生成高质量文本方面的能力,剽窃者可以利用 LLMs 生成与原作无法区分的逼真释义或摘要。为了应对 LLMs 可能在剽窃行为中的恶意使用,我们介绍了 PlagBench,这是一个综合的数据集,由三个针对不同写作领域的三个指导调整的 LLMs 生成的...
最近的研究发现,大型语言模型(LLMs)可能存在学术诚信风险,剽窃者可以利用LLMs生成逼真的摘要或释义。为了应对这种恶意使用,研究人员提出了一个名为PlagBench的数据集,用于评估LLMs和剽窃检测器的性能。研究结果显示,LLMs在摘要剽窃识别方面表现较差,但在商业剽窃检测方面超过了当前的检测器。