本文探讨了语言模型的优化分割,提出了一种通过独立预训练多个模型并利用缩放法则优化计算分配的方法。这种方法在不同模型规模和计算预算下,能有效提升模型在常识知识和推理基准上的表现。
本研究提出了一种新的推理基准NPPC,旨在解决现有基准测试中的崩溃和攻击问题。NPPC能够有效降低大语言模型的性能,并提供分析工具,以支持人工通用智能的测试与发展。
本文讨论了大型语言模型(LLM)在面对常识问题时的推理能力崩溃,研究强调了当前推理基准无法充分反映模型的真实推理能力和弱点,需要开发新的推理基准。
SELF-DISCOVER是一个通用的框架,能够自我发现任务内在的推理结构来解决复杂的推理问题。在多个推理基准上,相较于Chain of Thought (CoT),性能提升高达32%。同时,在推理计算量较少的情况下,超过了CoT-Self-Consistency等推理密集型方法20%以上。证明了自我发现的推理结构在不同模型之间是普适的。
完成下面两步后,将自动完成登录并继续当前操作。