麻省理工学院的研究人员提出了一种“测试时训练”方法,通过临时更新大型语言模型(LLMs)的参数,显著提高其在复杂推理任务中的准确性,最多可提升六倍。这种方法结合上下文学习,使模型在医疗诊断等需要逻辑推理的应用中更具灵活性。研究表明,更新模型参数能有效提升性能,未来目标是开发能够自动选择最佳学习策略的LLM。
本研究提出FineMedLM-o1模型,旨在解决医学大语言模型在复杂临床场景中的推理不足。通过高质量合成数据和长形式推理数据进行微调,并引入测试时训练(TTT),显著提升推理准确性,平均性能提高23%,TTT额外提升14%。
MIT的新研究表明,测试时训练(TTT)显著提升了大模型的推理能力,准确率最高可达原来的5.83倍,超越了GPT-4和Claude。TTT通过快速调整模型参数,结合数据增强和集成学习策略,在ARC任务上取得61.9%的SOTA成绩,超过人类平均水平。
OpenAI的下一代模型质量提升受到高质量数据减少的限制,Scaling Law可能不再适用。研究者提出了测试时训练(TTT)方法,显著提升了模型在抽象推理任务中的表现,挑战了传统依赖符号逻辑的假设。
完成下面两步后,将自动完成登录并继续当前操作。