Marco-LLM: Achieving Cross-Language Enhancement through Large-Scale Multilingual Training
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出Marco-LLM,通过大规模多语言训练,提升低资源语言在多语言任务中的表现,缩小了高资源语言与低资源语言之间的性能差距。
🎯
关键要点
- 本研究提出Marco-LLM,旨在提升低资源语言在多语言任务中的表现。
- Marco-LLM通过大规模多语言训练,显著提高了多语言基准测试的表现。
- 该模型在机器翻译任务中展现出有效性。
- 研究缩小了高资源语言与低资源语言之间的性能差距。
➡️