💡
原文中文,约3400字,阅读约需8分钟。
📝
内容提要
DeepSeek发布了DeepSeek-V3.2和V3.2-Speciale两款新开源模型,性能接近GPT-5和Gemini-3.0-Pro。V3.2适合日常使用,而V3.2-Speciale在复杂任务中表现优异,具备强大的推理能力。团队指出开源模型与闭源模型之间的差距在扩大,并提出三项关键技术突破以提升开源模型的能力。
🎯
关键要点
- DeepSeek发布了DeepSeek-V3.2和V3.2-Speciale两款新开源模型,性能接近GPT-5和Gemini-3.0-Pro。
- DeepSeek-V3.2适合日常使用,V3.2-Speciale在复杂任务中表现优异,具备强大的推理能力。
- 开源模型与闭源模型之间的性能差距在扩大,DeepSeek团队识别出三项关键不足。
- DeepSeek-V3.2的目标是平衡推理能力与输出长度,适合问答场景和通用Agent任务。
- DeepSeek-V3.2-Speciale是V3.2的长思考增强版,具备出色的指令跟随能力和逻辑验证能力。
- V3.2-Speciale在复杂任务上表现优异,但消耗的Tokens更多,成本更高。
- DeepSeek团队提出三大因素限制开源模型能力,包括架构依赖、资源分配不足和泛化能力滞后。
- 引入DSA稀疏注意力机制、可扩展的强化学习框架和大规模Agent任务合成流程是关键技术突破。
- DeepSeek-V3.2在推理基准测试中表现与Kimi-k2-thinking和GPT-5相似,但略逊于Gemini-3.0-Pro。
- DeepSeek-V3.2显著提升了开源模型的Agent能力,成为成本效益高的替代方案。
- DeepSeek-V3.2在工具使用基准测试中缩小了与闭源模型的性能差距,支持思考模式下的工具调用能力。
- 技术报告指出DeepSeek-V3.2的世界知识广度仍落后于领先的闭源模型,未来工作将关注效率和可扩展性。
➡️