💡
原文中文,约2200字,阅读约需6分钟。
📝
内容提要
DeepSeek-V4正式上线,分为V4-Pro和V4-Flash两个版本,性能领先于同类产品。V4-Pro适合复杂任务,V4-Flash为经济版,适合简单任务。新模型支持1M上下文,采用创新的注意力机制,显著降低计算需求。API服务已更新,旧模型将在三个月后停用。
🎯
关键要点
-
DeepSeek-V4正式上线,分为V4-Pro和V4-Flash两个版本。
-
V4-Pro适合复杂任务,性能比肩顶级闭源模型。
-
V4-Flash为经济版,适合简单任务,推理能力接近Pro。
-
新模型支持1M上下文,采用创新的注意力机制,显著降低计算需求。
-
API服务已更新,旧模型将在三个月后停用。
-
V4针对主流Agent产品进行了适配和优化,提升了代码任务和文档生成任务的能力。
-
DeepSeek-V4的发布没有提前通知,直接上线并同步开源。
❓
延伸问答
DeepSeek-V4有哪些版本?
DeepSeek-V4分为V4-Pro和V4-Flash两个版本。
V4-Pro和V4-Flash的主要区别是什么?
V4-Pro适合复杂任务,性能接近顶级闭源模型;V4-Flash为经济版,适合简单任务,推理能力接近Pro。
DeepSeek-V4的上下文支持能力是多少?
DeepSeek-V4支持1M上下文。
DeepSeek-V4采用了什么创新机制?
DeepSeek-V4采用了一种全新的注意力机制,结合DSA稀疏注意力,显著降低计算需求。
旧模型何时停用?
旧模型将在三个月后停用,即2026年7月24日。
DeepSeek-V4的API服务有什么更新?
DeepSeek-V4的API服务已更新,支持OpenAI ChatCompletions接口和Anthropic接口。
➡️