四评DeepSeek
陆首群,2026.4.20
几位国际AI专家对本文的评价
- 您的文章核心观点成立,信息时效性强,抓住DeepSeekv4发布前的关键动态。
- 您的文章整体可信,观点明确,可作为一篇及时的DeepSeekv4前瞻性评论发布。
摘要
- 一、DeepSeekv4能否再现轰动效应尚待观察。
- 二、DeepSeekv4最大优势在于高性价比(MoE的持续优化)。
- 三、不但推动国产算力与模型适配,而且摆脱英伟达硬件依赖,形成一个算力完整自主的生态闭环,实现算力自主可控。
- 四、快速补齐多模态、长上下文等短板。
- 五、编程能力有望跻身于全球前列。
- 六、企业级AI Agent平台的关键在企业场景落地。
2024年12月,DeepSeekv3基座大模型发布震惊硅谷,2025年1月,DeepSeek R1推理大模型发布:在Arena排行榜上性能首次几乎追平美国顶尖大模型(OpenAI的o1-preview),据行业分析,R1的训练成本只有o1的数十分之一。(具有极大的性价比),性价比优势显著。
今天人们盼望的DeepSeekv4何时出台?梁文锋终于说话了:“4月下旬正式上线”-V4虽未正式发布,但最近每天都在透露其进展信息,这也为我们在-V4发布前评-V4提供基本素材。
-V4的发布,将使其性价比具有更大优势;将为算力国产化作出重大贡献;将快速提升DeepSeek原来存在的短板(如多模态、超长上下文、处理复杂任务、AI Agent、世界模型等);这次-V4的发布,能否出现像V3、-R1发布时的轰动效应,尚待观察,但引起全球关注是确定的。
作为DeepSeekv4的最大优势,DeepSeek不断改进稀疏化结构的混合专家模型MoE(推动MoE演进),把不断降低成本(或不断提高性价比)做到极致!
DeepSeek不断改进MoE(MoE的演进路线如下):
从激化参数量→激化专家数→开辟第二条稀疏化路线:MoE+mHC+Engram→MoE+Egram+动态路由,导致成本降低(数十分之一):1/20→1/30→1/60(甚至1/100)。
西方企业也在采取MoE降本措施(但尚未达到DeepSeek推进MoE演进所达到的降本显著效果)。
如何比较中西方大模型产业效果?有人提出,如果DeepSeek成本降低至1/20,性能做到不低于西方的80%,可认为DeepSeek在对比中取胜,这是一个可探索的问题。
这次-V4的发布,面对近期全球竞相争夺编程王冠,-V4能否登顶?在4月15日发布的Arena Al ToP20排行榜中,Anthropic的Claude Opus 4.6以1502高分夺得全球编程王冠,竞争白热化。
4月19日,Anthropic发布Claude Opus4.7,编程能力又爆了!与-4.6相比,Cursor bench从58%→70%,并在最难的编程任务上大幅提升。CurSor CEO Michiel Truell评价:“这是编程能力一次实质性跨越”。DeepSeek一度透露其内测与灰度测试情况,试图编程登顶,但与Anthropic今天成绩相比,登顶恐难!但有望跻身于全球编程前列!
这次-v4发布,Deepseek在塑造企业级AI智能体协作平台(AI Agent)方面作为如何?
如梁文锋所言:“目前全球正式进入Agent时代”,DeepSeek对研究这个项目高度重视,利用v4.0/v3.2强大的长上下文窗口(百万级token)和稀疏注意力机制,通过主、子智能体协作架构推动企业复杂业务流程自动化。
当前全球四大AI Agent平台(Anthropic、DeepSeek、Google、OpenAI)都把企业应用作为起步方向,竞争激烈,四大模型性能各具特色。但企业级AI Agent平台的关键在企业场景落地。
DeepSeek-v4的AI Agent平台表现如何?可望达到排名的前列位置(今提出DeepSeek-v3.1在4月16日权威榜单GAIA测试中排名第二作为参考)。
关于国产算力,DeepSeek V4的作为如何?
DeepSeek-v4模型正在推进“底层迁移”,将英伟达的CUDA全面转向华为的CANN,这不仅是简单的算力适配,更是全球首个试图摆脱对英伟达硬件垄断的依赖,从前沿大模型算力的“生态锚定试验”,倒逼中国建立一个算力完整的自主生态闭环,取得在整个智能时代算力的“规划制定权”和“生态主导权”。
这次-v4的发布,DeepSeek在大力提升短板的基础上,在向世界模型和通用人工智能转轨及战略发展上,起什么作用?
DeepSeek大力、迅速提升短板正在进行中,是有成绩的,面向世界模型和通用人工智能也已明确了战略发展方向。