4月24日,DeepSeek正式推出、并开源全新系列模型DeepSeek-V4的预览版本。据了解,DeepSeek-V4可支持百万字超长上下文,号称在Agent能力、世界知识和推理性能上均实现了国内与开源领域的领先。
据DeepSeek方面介绍,DeepSeek-V4开创了一种全新的注意力机制,在Token维度进行压缩,结合DSA稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,相比于传统方法大幅降低了对计算和显存的需求。同时,DeepSeek-V4针对Claude Code 、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。
据了解,DeepSeek-V4分为DeepSeek-V4-Pro和DeepSeek-V4-Flash两个版本。其中,DeepSeek-V4-Pro参数达1.6T,激活参数达49B,在数学、STEM、竞赛型代码的测评中,超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的成绩。在世界知识测评中,DeepSeek-V4-Pro也大幅领先其他开源模型,仅稍逊于Gemini-Pro-3.1。

Agent能力层面,DeepSeek-V4-Pro在Agentic Coding评测中已达到当前开源模型最佳水平,并在其他Agent相关评测中同样表现优异。据DeepSeek方面透露,目前该模型已成为内部员工使用的Agentic Coding模型,而且据评测反馈其使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式,但与Opus 4.6思考模式存在一定差距。
而DeepSeek-V4-Flash的参数则达284B,激活参数13B,虽然在世界知识储备方面稍逊一筹,但展现出了接近DeepSeek-V4-Pro的推理能力。在Agent测评中,DeepSeek-V4-Flash在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。
目前,用户登录DeepSeek官网、官方App即可与DeepSeek-V4对话,其中专家模式由DeepSeek-V4-Pro支持,快速模式由DeepSeek-V4-Flash支持。
需要注意的是,继不久前有消息称,DeepSeek正就首次引入外部资本展开洽谈,并且腾讯、阿里均有意参与后。日前有消息源透露,DeepSeek计划本轮增资500亿元,其中内部增资200亿元,对外募资300亿元,且所有参与投资的机构需50亿元起投。而在估值方面,据称DeepSeek本轮融前估值为3000亿元。
但对此消息,DeepSeek方面尚未进行回应。
【本文图片来自网络】
