泡泡资讯网

DeepSeek-V4正式发布!外媒感叹:中国AI实力飞速增长

千呼万唤,终于来了!4月24日,深度求索(DeepSeek)正式发布了全新大模型DeepSeek-V4预览版,并且同步开

千呼万唤,终于来了!

4月24日,深度求索(DeepSeek)正式发布了全新大模型DeepSeek-V4预览版,并且同步开源。这距离上一代R1发布已经过去了15个月,这迟到的15个月,不仅没让人失望,反而憋出了一个让外媒都不得不感叹的大招。

路透社、彭博社这些国际大媒体都在盯着看,结论出奇一致:中国AI的技术实力,正在飞速增长,跟美国巨头的差距,肉眼可见地缩小了。

这次V4的发布,最让人拍案叫绝的,不是它性能有多强,而是它彻底摆脱了对英伟达的依赖。

你没听错,V4从底层代码开始,就全面适配了华为昇腾等国产芯片。

这意味着什么?

这意味着我们终于不用再被“卡脖子”了。

以前,不管你的模型多牛,都得看人家的芯片脸色。

现在,DeepSeek-V4在华为昇腾芯片上跑通了,算力利用率高达85%,部署成本只有英伟达方案的三分之一。

这不仅仅是技术上的突破,更是战略上的胜利。

英伟达CEO黄仁勋最近都公开表达了担忧,怕的就是这个——一旦顶尖AI模型不再依赖他们的生态,那条护城河也就不牢固了。

再说说性能。

V4这次搞了个“混合专家”(MoE)架构,你可以把它想象成一个庞大的专家天团。

虽然总参数量高达1.6万亿,但每次处理任务,只激活其中一小部分“专家”,大概370亿左右。

这就好比,你身后站着一个万人智囊团,但每次回答问题,只请最对口的那几位出马。

结果是,脑子很大,出手却很快,成本还极低。

它的上下文窗口直接干到了100万Token,什么概念?

相当于一次性读完《三体》三部曲,或者处理完一整个项目的全部代码和文档。

在法律、金融、科研这些需要处理海量信息的领域,这简直是降维打击。

在编程能力上,V4-Pro的表现已经超越了Claude Sonnet 4.5,交付质量接近Claude Opus 4.6的非思考模式。

虽然在最顶尖的推理测试上,跟谷歌的Gemini-Pro-3.1还有3到6个月的差距,但这份坦诚,反而更显底气。

它承认差距,但更用行动证明,我们已经追到了第一梯队的门口。

最狠的还是价格。

V4的API定价,输入每百万Token只要0.3美元,输出0.5美元。

这是什么概念?

GPT-4o的输入价格是2.5美元,输出10美元。

算下来,V4的成本只有OpenAI的二十分之一到五十分之一。

有开发者实测,同样的工作量,用GPT-4o一个月要花380美元,用V4只要18美元。

这已经不是性价比了,这是直接把AI智能的成本打到了“水电煤”的级别。

当智能的边际成本趋近于零,整个应用生态都会被重塑。

客服、教育、医疗、法律,这些行业都将被重新定义。

当然,V4的意义远不止于一个模型的发布。

它更像是一个信号,宣告了中国AI从“单点突破”走向了“系统闭环”。

模型、芯片、应用,正在形成一个正反馈的循环。

V4证明了国产芯片能承载万亿参数模型,这会直接拉动华为昇腾、寒武纪这些国产芯片企业的发展。

芯片强了,模型就能跑得更好;模型好了,应用就能遍地开花;应用多了,又能反哺模型和芯片的迭代。

这个闭环一旦跑通,其意义远超任何单模型的能力突破。

它意味着,我们正在建立一个独立于英伟达生态之外的,从底层硬件到上层应用的完整技术体系。

这才是真正的“斯普特尼克时刻”。

去年,DeepSeek用低成本高性能的模型震惊世界。

今年,V4用“国模+国芯”的组合拳,宣告了中国AI的常态化竞争时代已经到来。

它不再是一个孤立的“奇迹”,而是一种可复制、可持续的发展模式。

从拉各斯到吉隆坡,全球预算有限的开发者都在转向中国的开源模型,因为这里的技术更开放,成本更低廉。

这,就是技术领域的软实力。

DeepSeek在公告的末尾,引用了《荀子》的一句话:“不诱于誉,不恐于诽。”

不为赞誉所诱惑,不因诽谤而恐惧。

这或许就是中国AI人最真实的写照。

在所有人都质疑的时候,他们选择沉默,继续写代码。

在所有人都唱衰的时候,他们选择坚持,继续训练下一个版本。

V4迟到了15个月,但这15个月没有被浪费。

它们被用来完成从CUDA到CANN的迁移,被用来把上下文从128K拉到1M。

这15个月,是中国AI人埋头苦干的15个月,也是从“能用”到“好用”的战略跨越。

今天,V4来了。

它带来的不只是一次技术升级,更是一场属于中国AI的“寒武纪大爆发”。

基础智能的成本被压到了阈值以下,上面的应用层,即将迎来一场难以想象的爆发。

这一次,我们不再是追赶者,我们正在成为规则的制定者。