您现在的位置是:首页 > 文章详情

李开复:如果十年后回顾 DeepSeek 如何让中国未落后美国,答案一定是开源

日期:2025-09-28点击:4

根据《界面新闻》的报道,9 月 27 日,零一万物 CEO 李开复在长江 CEO 组织 20 周年返校日庆典上表示,DeepSeek 对中国 AI 发展的核心贡献在于推动了开源生态的形成。“如果十年后,我们回顾 DeepSeek 怎么让中国没有落后于美国,答案并非其技术能力本身,而是它带来了中国(大模型)开源时代。”

李开复提到,自 DeepSeek 开源以来,国内多家企业相继开源大模型,形成了“既开源、又比拼速度”的良性竞争局面。他认为,开源模式高度契合中国企业的学习特性,有望助力中国在 AI 领域缩小与美国的差距。

李开复此前曾多次力挺大模型开源。今年 3 月,他在中关村论坛人工智能日上表示,DeepSeek 的成功证明闭源是一条死路,开源才会有更大的发展。

他认为,随着 AI 的 Scaling Law 法则从预训练端转移到推理端上,AI 模型、AI 应用会在今年迎来新的加速爆发,今年的一个行业口号应该是“Make AI Work”(让 AI 变得有用)。他表示,随着 Scaling Law 的放缓,超大预训练模型的直接商业价值在逐步降低。

李开复给出的四个理由是:数据不足导致传统预训练将终结;超大 GPU 群效率降低,容错问题等导致边际效应降低;超大预训练模型价格昂贵,速度缓慢;新推理 Scaling Law 将带来更高回报。超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教 AI,新学习范式是 AI 教 AI。

原文链接:https://www.oschina.net/news/374911
关注公众号

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。

持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。

转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。

文章评论

共有0条评论来说两句吧...

文章二维码

扫描即可查看该文章

点击排行

推荐阅读

最新文章