本文介绍了现代大型语言模型(LLMs)在处理较长序列时的上下文长度外推方法,并提出了一种修改位置编码基础的截断策略。作者通过广泛调研发现线性标度是扩展上下文长度的最佳方法,并且使用更长的标度在评估时可以获得进一步的收益。作者还发布了三个新的13B参数长上下文模型,并提供了复制结果的代码。
本文研究了对现代大型语言模型(LLMs)在编码任务中的对抗性示例攻击的影响,并提出了基于提示的防御措施,实验证明其具有改善模型韧性的潜力。
本文介绍了使用现代大型语言模型 (LLMs) 的生成式错误校正 (GEC) 来提升自动语音识别 (ASR) 系统性能的方法。通过替代提示和进化式提示优化算法,改进了初始提示。评估结果显示算法的有效性和潜力。
本文研究了对现代大型语言模型(LLMs)在编码任务中的对抗性示例攻击的影响,并提出了基于提示的防御措施。实验证明,对抗性示例具有可转移性,削弱了LLMs的性能。提出的防御措施显示出改善模型韧性的潜力。
OMGEval是第一个能评估LLMs在不同语言中能力的开源测试集,包括中文、俄语、法语、西班牙语和阿拉伯语。OMGEval提供了804个问题,通过GPT-4作为仲裁者,证明OMGEval与人工评估密切相关,为研究共同体进一步理解和改进LLMs的多语言能力提供参考。
本文研究了对现代大型语言模型(LLMs)在编码任务中的对抗性示例攻击的影响,并提出了基于提示的防御措施,实验证明对抗性示例具有可转移性,削弱了LLMs的性能,提出的防御措施显示出改善模型韧性的潜力。
完成下面两步后,将自动完成登录并继续当前操作。