本研究探讨大型语言模型(LLMs)推理能力是否需要显式思考过程。使用DeepSeek-R1-Distill-Qwen模型的实验表明,跳过思考过程的提示在多个推理任务中表现优异,尤其在低预算条件下,呼吁重新考虑冗长思考的必要性。
完成下面两步后,将自动完成登录并继续当前操作。