通过扩充指令来提高大型语言模型的翻译准确性
原文中文,约500字,阅读约需2分钟。发表于: 。通过引入 SWIE(Segment-Weighted Instruction Embedding)和一个 instruction-following 数据集 OVERMISS,以及对两个主流开源 LLMs BLOOM 和 LLaMA 的应用,提出了改善模型指令理解和翻译结果忠实性的方法,实验证明在翻译性能上取得了显著提升,并且将 SWIE 和 OVERMISS 相结合的模型表现出进一步的增强。
这项研究评估了10个开源指导式LLMs在代码理解和生成任务上的表现。结果显示,指导式LLMs在零样本和少样本设置下表现非常有竞争力,有时甚至比特定任务微调的小型SOTA模型更好。添加演示示例可以提高指导式LLMs的性能,但有时也会导致不稳定或更差的表现。基于BM25的选样策略在生成问题上优于随机选样或固定选样。微调可以进一步提高模型性能,指导式LLMs在微调后的性能优于小型SOTA模型和未进行指导微调的相似规模LLMs。研究提出了模型和使用建议、性能和成本的权衡以及未来方向的实用影响。