作者通过多种方法提高翻译效果,发现用“目标语言重写”比直接“翻译”更自然,显著提升了翻译质量。
本研究通过引入“注册”人工标记,显著提升了多语言神经机器翻译模型的性能,使其在大型基准测试中超越相关方法,接近商业大型语言模型的效果。
本研究探讨了聊天模型在未标注目标语言数据下的词汇扩展问题,现有策略有效率为71%,后续技术可提升至87%。为资源有限语言的模型能力提升提供新视角。
本研究分析了多语言信息提取的局限性,探讨了语言距离及其度量,并优化了零样本多语言设置中的数据选择,为多语言信息提取系统奠定基础。
研究表明,使用大型语言模型(LLM)进行翻译时,仅需32个实例进行细调即可显著提升翻译效果。选择翻译方向至关重要,英语细调可能导致误解,影响其他语言的翻译。引入噪声时,目标语言的表示质量也会影响结果。成功对齐需要教会模型保持“表面”关注,以避免错误偏差。
研究发现,使用大型语言模型进行翻译细调时,仅用32个训练实例就能表现出很强的翻译能力。单向细调可以实现多方向翻译,但选择翻译方向很重要。在目标语言侧进行细调可能导致任务误解,对非英语语言的翻译造成阻碍。对于不充分表示的语言,噪声的影响较小。成功对齐取决于教会模型保持“表面”关注,避免学习错误的偏差影响翻译。
研究发现,使用大型语言模型进行细调后,仅用32个训练实例即可实现强大的翻译能力。单向细调可以实现多方向翻译,但选择翻译方向很重要。在目标语言侧进行细调可能导致任务误解,对非英语语言的翻译造成阻碍。对于不充分表示的语言,噪声的影响较小。成功对齐取决于教会模型保持“表面”关注,避免学习错误的偏差影响翻译。
本研究解决了在低资源语言中生成对话的挑战,现有方法依赖于大规模对话语料库。通过创新的跨语言代码切换方法,提出了零-shot对话生成模型ChatZero,并通过无监督对比学习来缩小源语言和伪目标语言之间的语义差距。实验结果表明,ChatZero在多语言数据集上表现出色,达到了监督学习的90%以上性能,且在其他基线中取得了最新的性能。
本研究提出了CL2CM通用框架,通过跨语言转移改善视觉和目标语言对齐,验证了其高潜力和有效性。
大型语言模型在教育和学习应用中的使用增加,研究发现控制风格可以增加理解力,促进包容性,有助于知识蒸馏。评估了五个最先进的模型,发现性能不一致,标准偏差高。性能在一年级任务中介于五年级和八年级之间,第二个任务性能有所提高。然而,LLMs经常生成文化上不敏感的内容。提供了详细的结果分析和讨论。
该研究提出了一种自动提示优化方法,用于以情绪为条件的文本生成。通过迭代的优化过程,改变提示中的标记,以实现情感条件。与手动设计的提示相比,优化的提示在实现情感条件方面表现更好。
本研究比较了几种生成合成源句子的方法,发现采样或噪声束搜索的反向翻译效果最佳。同时,将该方法扩展到数亿条单语数据,取得了35 BLEU的最新记录。
本文介绍了一种使用5-gram KenLM语言模型的新方法,通过Kneser-ney平滑技术过滤域外数据,提高机器翻译质量。同时采用多域、微调和迭代回译等自适应技术,在Hindi-Nepali语言对上提高了BLEU点数。
该研究使用机器学习探索了将英语翻译成形式化特征语言的问题,并通过印地语进行了实验。研究使用转换器模型评估了翻译的正式性准确性,结果显示了一种灵活的翻译策略,适应了多样化的语言交流需求和场景。
该研究介绍了如何在端到端语音翻译中引入目标语言上下文,以增强连贯性并克服扩展音频片段的内存限制。同时,提出了上下文丢弃以确保对上下文缺失的鲁棒性,并通过添加说话者信息进一步提高性能。研究表明,上下文信息主要有助于捕捉上下文风格,并解决指代和命名实体问题。
这是一个文本框翻译插件,可以实时翻译Chrome浏览器中的文本框内容。安装后钉在工具栏,设置目标语言和触发标识。输入触发标识后自动翻译。适用于Google、Twitter、微博等输入框。作者欢迎用户提问和建议,推荐给其他人使用。
完成下面两步后,将自动完成登录并继续当前操作。