DeepSeek V4 没有缩小差距——它正在悄悄落后
主流叙事是"中国 AI 已经追上美国"。但美国 NIST 旗下 CAISI 5 月独立评估,把这个故事打得粉碎。
问题 1:与前沿模型差距从 3 个月扩大到 8 个月。 DeepSeek 自己的报告说 V4-Pro 与 GPT-5.4、Claude Opus 4.6 相当(差 2 个月)。但 CAISI 用非公开基准测试得出结论——V4 实际只相当于 8 个月前的 GPT-5。差距没缩小,是拉大了。
问题 2:参数堆到 1.6 万亿,仍然追不上闭源。 DeepSeek 把参数从 V3.2 的 6710 亿堆到 V4-Pro 的 1.6 万亿(4900 亿激活),成为全球最大开源模型——还是只在编码竞赛上"与 GPT-5.4 相当",世界知识、推理、多模态全面落后。
问题 3:训练框架在英伟达和华为之间反复横跳。 DeepSeek 2025 年中曾把训练迁移到华为昇腾,结果出现"严重训练失败",R2 被迫退回 NVIDIA GPU。现在的解法是——训练用 NVIDIA,推理用华为。这恰恰证明国产 AI 芯片还撑不起前沿模型训练。
DeepSeek 内部的真实困境? V4 推迟 6 个月才上线,定价砍到 GPT-5.4 的 1/9(每百万 tokens 3.48 美元 vs 30 美元),但这不是技术优势——是利润换市占率。Anthropic 单用户月营收 211 美元,DeepSeek 拿什么对手?
中国 AI 不是没进步,是别人跑得更快。CAISI 的 8 个月差距不是技术差距,是体系差距——GPU 禁令、人才流失、训练框架本土化全部失败叠加的结果。
顯示更多