被低估的真相:Agentic AI 是一场以"存储"为中心的范式革命
1/ 一句话观点 Agentic AI 的核心,不是算力,是记忆。 新硬件层级正在变成: ① 记忆(HBM / DRAM / NAND) ② 并行计算(GPU / ASIC) ③ 协调者(CPU) CPU 早就不再承担主要计算逻辑。
2/ 第一性原理 人类对"智能"的终极追求只有两件事: 无限记忆 + 无限计算。 我们日常评价一个人聪不聪明,无非两点: "记性好" + "脑子转得快"。 机器智能在沿着同一条路前进。
3/ 先说市场已经讲过的故事:HBM LLM 推理的 decode 阶段是典型的 memory-bound 任务。 每生成一个 token,都要把整套 KV cache 从显存里搬一遍。 带宽不够 → 昂贵的 GPU 直接闲置。 这就是为什么 GPU 每升一代,HBM 的带宽和容量都在追着涨。
4/ 市场没怎么讲的故事:1M context 不是在 GPU 集群里组装的 我们天天说的"1M context",并不是在 AI 推理集群中拼出来的。 它的真正组装地点,是 跑 Agentic 系统的传统服务器(CPU + 大 DRAM)。
5/ 那些传统服务器在做什么? • 加载用户的长期 / 短期记忆 • 加载 agent 的系统规范(system prompt) • 加载 skill / tool / subagent 的说明 • 拼到超过 1M token 时,还要做压缩 这一整套,全部跑在 Agentic 服务器的 DRAM 里。
6/ 对比过去的互联网 / 移动互联网 过去几乎不处理用户上下文。 只有搜索 / 推荐 / 广告才会留一点用户画像, 数据量大概只有现在 Agentic 系统的 1/20,甚至 1/100。
7/ 供应链已经在反映这件事 服务器的 CPU : DRAM 配比,正从 传统的 1 core : 4 GB 升级到 1 : 16,并继续往上走。
8/ 但远不止"4 倍存储"那么简单 Agentic 状态下,单颗 CPU 能服务的用户数,只有过去的几分之一。 当整个 IT 都切到 Agentic: • CPU 数量:增长 几倍 ~ 十几倍 • DRAM 总量:增长 几十倍 ~ 上百倍
9/ 结论 Agentic AI 是一次以 "存储 + 并行计算" 为核心的范式迁移。 软件范式变了,硬件范式也跟着变。 只有真正读懂技术的人,才会理解: 这一轮存储不是周期,是范式。
10/ 时间维度 考虑到: • 人群渗透率还很低 • 单用户使用深度还很浅 未来至少 5 年,看不到这轮存储需求的周期顶部。 (拉长时间看万物皆周期,但这一轮远没到拐点)
$MU $DRAM $SNDK
顯示更多