文章图片
1 min read

AI

DeepSeek V4 重磅发布:打破闭源垄断,百万上下文成标配

刚刚,DeepSeek-V4 正式发布!这一次,DeepSeek 再次搅动了 AI 行业的格局。

两个版本同时发布

本次 V4 一口气带来两个版本:

V4-Pro 是性能对标顶级闭源模型的顶配版本,拥有 1.6T 参数、49B 激活参数、100 万上下文长度。根据官方评测,V4-Pro 在 Agent 能力上已经比肩 Opus 4.6,在数学、STEM 和竞赛级代码任务上超越所有已公开评测的开源模型,直逼世界顶级闭源模型水平。

V4-Flash 则是更小更快的经济版,284B 参数、13B 激活参数,同样支持 100 万上下文。推理能力接近 Pro 版本,适合对成本更敏感的应用场景。

Agent 能力比肩 Opus 4.6

根据官方披露,目前 DeepSeek-V4 已经成为公司内部员工使用的 Agentic Coding 模型。据评测反馈,使用体验优于 Claude Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。虽然仍与 Opus 4.6 思考模式存在一定差距,但这个进步已经足够令人瞩目。

V4 还针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品做了专项适配和优化,代码任务和文档生成任务都有显著提升。

百万上下文:水电煤级别的标配

值得一提的是,从今天开始,100 万上下文已经成为 DeepSeek 所有官方服务的标配

一年前,100 万上下文还是 Google Gemini 的独家王牌,其他闭源模型要么 128K 要么 200K,开源领域几乎没人玩得起这个量级。如今,DeepSeek 直接把百万上下文从一个「高端功能」变成了「水电煤」。

官方解密了背后的技术:V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力一起使用,相比传统方法对计算和显存的需求大幅降低。

明确携手华为芯片

在国产算力方面,官方明确表示:下半年将支持华为算力。这意味着 DeepSeek 正在加速推进算力多元化,摆脱对单一芯片厂商的依赖。

API 价格:性价比依旧

V4-Pro 和 V4-Flash 已同步上线 API 服务,支持 OpenAI ChatCompletions 接口和 Anthropic 接口两套协议。base_url 不变,只需将 model 参数改成 deepseek-v4-prodeepseek-v4-flash 即可调用。


DeepSeek V4 的发布,不仅是技术的进步,更是一种战略宣言——用开源打破闭源垄断,用技术创新降低 AI 门槛。百万上下文免费用、Agent 能力比肩顶级闭源模型、下半年支持华为芯片……这些信号都在表明:AI 普惠时代正在加速到来。