本研究提出MM-PRM方法,通过可扩展的步骤级监督,解决多模态大型语言模型在复杂推理中的逻辑不一致问题。利用70万个步骤级注释,该方法显著提升了推理路径的逻辑稳健性,并在多个基准测试中显示出有效性。
完成下面两步后,将自动完成登录并继续当前操作。