古代韩国档案翻译:基于统计短语对齐、LLM 上下文学习和跨方法论方法的比较分析
原文中文,约300字,阅读约需1分钟。发表于: 。通过比较三种翻译古代文本的方法(短语对齐、上下文 LLM 学习和使用源 - 目标语料库的句子片段令牌的统计机器翻译方法),本研究指出所提出的方法在 BLEU 分数上取得了 36.71 的性能,超过了 SOLAR-10.7B 上下文学习和最好的 Seq2Seq 模型的分数。进一步的分析和讨论在论文中提出。
本文提出了一种使用基于5-gram KenLM语言模型的缩放相似性分数的新方法,以提高机器翻译的质量。通过Kneser-ney平滑技术过滤域外数据,并采用多域、微调和迭代回译等自适应技术。实验证明,在Hindi-Nepali语言对上,该方法在多域、微调和迭代回译上分别提高了约2个BLEU点、3个BLEU点和2个BLEU点。