本研究针对多语言训练语料库中的固有语言偏差导致的语义漂移和逻辑不一致问题,提出了一种跨语言一致性(CLC)框架。该框架通过多语种推理路径集成和多数投票,显著提高了大语言模型的推理能力,实验证明在多个数据集上相较于传统自一致性方法,CLC带来了9.5%至18.5%的绝对准确率提升,展现了其在复杂推理任务中的潜在影响。
本研究提出了一种跨语言一致性(CLC)框架,旨在解决多语言训练语料库中的语言偏差问题。通过多语种推理路径集成,CLC显著提升了大语言模型的推理能力,准确率提高了9.5%至18.5%。