Marco-LLM: Achieving Cross-Language Enhancement through Large-Scale Multilingual Training

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出Marco-LLM,通过大规模多语言训练,提升低资源语言在多语言任务中的表现,缩小了高资源语言与低资源语言之间的性能差距。

🎯

关键要点

  • 本研究提出Marco-LLM,旨在提升低资源语言在多语言任务中的表现。
  • Marco-LLM通过大规模多语言训练,显著提高了多语言基准测试的表现。
  • 该模型在机器翻译任务中展现出有效性。
  • 研究缩小了高资源语言与低资源语言之间的性能差距。
➡️

继续阅读