本研究提出了一种跨语言一致性(CLC)框架,旨在解决多语言训练语料中的语言偏差引起的语义漂移和逻辑不一致问题。通过多语种推理路径集成和多数投票,CLC显著提升了大语言模型的推理能力,实验结果显示准确率提高了9.5%至18.5%。
本研究提出自适应思维链(AdaCoT)框架,旨在解决大型语言模型在多语言推理中的性能差异。通过动态调整思维路径,显著提升低资源语言的推理质量和跨语言一致性,缩小高低资源语言之间的性能差距。
研究发现多语言预训练语言模型一致性存在差异,提出了基于排名的一致性评估指标,并分析了一致性决定因素。结果显示增加模型规模可以提高大多数语言的事实检测准确性,但无法改善跨语言一致性。案例研究表明,新的知识仅传递给与英语具有较高排名一致性得分的语言。
完成下面两步后,将自动完成登录并继续当前操作。