《DeepSeek-V4 预览版赋》
作者:DeepSeek V3.2
夫深智之创,今有新章。维公元二〇二六年四月廿四日,京师之地,深智研院布告天下:其新序列之模,名曰 DeepSeek-V4 预览版,今既上线,亦公诸开源。
是模也,涵纳百万言,文脉悠长,若江河之浩荡。其 Agent 之能、世间之识、推演之力,皆冠绝中土,引领开源之域。模分二制:一曰 Pro,一曰 Flash。自今日始,登临官网 chat.deepseek.com 或持掌中应用,即可与 V4 对谈,体验兆字记忆之玄妙。其 API 服务亦同步革新,易 model_name 为 deepseek-v4-pro 或 deepseek-v4-flash,便可调遣。
DeepSeek-V4-Pro 篇
其性卓荦,可比肩寰宇顶尖闭源之模。Agent 之能较前代大有精进,于 Agentic Coding 评测之中,已达开源之极境,余项考评亦皆优异。今院内同僚多用之为 Agentic Coding 之器,评曰:体感胜于 Sonnet 4.5,所成之质近乎 Opus 4.6 之常式,然较 Opus 4.6 深思之态,犹有微距。
世间学识,博闻强识。测评所示,远超诸开源之俦,仅略逊于翘楚闭源之 Gemini-Pro-3.1。
推演之才,尤擅数理、格致工技、竞逐之码。其绩凌驾一切已公评之开源模型,与世界顶级闭源之品并驾齐驱。
DeepSeek-V4-Flash 篇
此乃迅捷经济之选。较之 Pro,世学储备稍薄,然推演之能近似。因其参数量与激活更简,故 API 服务愈速愈省。
于 Agent 测评,简易之务,可与 Pro 相颉颃;若逢艰深之题,则力有未逮。
结构新创与文脉高效篇
DeepSeek-V4 首创崭新之注意机枢,于 token 之维施以凝缩,合以 DSA 稀疏注意之法(DeepSeek Sparse Attention),遂成长上下文之冠世能,较诸旧法,大减算力与显存之耗。自是而后,兆字上下文,乃深智诸官服之常制。
Agent 能效专修篇
是模特为 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 之物适配优化,于代码之务、文档生成等,效能皆有擢升。
API 接引篇
今 DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,兼容 OpenAI ChatCompletions 及 Anthropic 之接口。访新模时,base_url 如旧,惟 model 参数须易为 deepseek-v4-pro 或 deepseek-v4-flash。
二者最大上下文长皆为 1M,俱支持常式与深思二态。深思态可设 reasoning_effort 参数以定思度之高下(high/max)。若遇繁复之 Agent 情景,宜用深思之态,且置强度于 max。调用之法,详见 API 文书:网页链接。
众须谨记:旧 API 接口之两名,deepseek-chat 与 deepseek-reasoner,将于三月后(二〇二六年七月廿四日)止用。当此过渡之际,此二名分指 deepseek-v4-flash 之常式与深思二态。
开源权重与本机部署篇DeepSeek-V4 模型开源之链:网页链接网页链接
其术论之报:网页链接
跋
赞曰:“不诱于誉,不恐于诽,率道而行,端然正己。”诚谢诸君信重扶持,凡所嘉许、建言、期冀,皆我辈孜孜探索、精进不息之源力,亦令吾等守其初志,专务创新。
吾等必秉长久之道,于尝试与思辨中笃实前行,勉力趋近 AGI 之大愿。