最近消费级DRAM和SSD市场报价下跌,之前存储周期有ptsd的投资人开始恐慌,这轮存储超级周期是不是到头了?
这种观点忽视了这轮周期的和之前的巨大差异:这个市场已经不是一个整体了。
aidc、企业端和消费级用的存储根本不是同一种东西
HBM和消费级DDR5的巨大差别稍有经验的投资人应该都了解了,物理上完全没法替换。
就算DRAM里也有分层。aidc和企业服务器用的是带ECC纠错和寄存器缓冲的RDIMM,消费级是没有ECC的UDIMM。
ECC不是可选配置,是服务器长期稳定运行的硬性要求——内存比特翻转在消费端顶多死机重启,在数据中心可能造成静默数据损坏,后果完全不同。两种产品封装形态不同,生产时就已经分流。
SSD同理。消费级QLC固态硬盘寿命大概600TBW,企业级可以到10000TBW以上。数据中心每天写入量巨大,消费级产品几个月就废。而且企业级SSD有专门的QoS固件保证延迟稳定性,消费级在垃圾回收时延迟会抖,这对AI推理服务的SLA是不可接受的。
更重要的是,dram和ssd从晶圆切片那一步就已经分流了。
以dram为例,同一块晶圆出来的die,测试通过ECC和时序要求的去做RDIMM,其余的降级做消费品。
所以即使消费端有过剩,把库存重新定向供应aidc或者企业产品也完全不可行。
消费端降价对这次周期来说,不是主要因素。
真正要判断存储大周期是否见顶,应该看:HBM供需是否开始逆转(比如三星良率追上海力士导致供给过剩)、CSP资本开支是否实质性削减、AI推理货币化是否不及预期。这些信号一个都没出现,消费端降价单独说明不了什么。
如果非要拍脑袋给个结论,个人认为,这很可能不过是硅升碳降,k型增长,在存储产业的反映。
消费端跌的同时,HBM和企业级存储完全可以继续涨,这不是矛盾,是这轮周期的结构特征。
顯示更多
google今天这篇2025年4月的论文居然引发了存储的下跌,那我们就再重读一下:
KV cache 一直是大模型推理里的最大内存消耗来源。论文的做法,本质是用信息论最优的方式去压缩这些数据。不是简单地降低精度,而是重新分配信息密度。普通部分用极低比特表示,异常值单独保留更高精度。同时不再逐元素处理,而是以向量为单位编码,因为 attention 本身就是内积结构。
关键的是,它的误差已经贴近信息论下界(香农极限),也就是说压缩效率已经非常接近理论极限。论文里给出的结果,大致是 4 到 4.5 倍的压缩,性能几乎没有明显损失。效果很明显,但后续再压缩而不损伤性能的可能性已经很小。
基于大科技的内部研发流程,论文的方法及可能对模型产生的优化效果很可能已经被工程分阶段吃掉了。
比方说,低比特量化早就被用起来了,从 int8 到 int4,再到更低精度,主流模型在推理侧基本都在用。异常值单独处理这件事也不是新东西,SmoothQuant、AWQ 这些方法本质上都在做类似的事情。KV cache 本身的压缩、滑窗、分层缓存,在大模型里也已经是常规配置。
真正还没完全落地的,是论文里更极致的那一部分,比如向量量化,以及更接近信息论极限的编码方式。这些方法的问题不是原理,而是工程实现,GPU 不友好,延迟控制难,稳定性和泛化也更复杂,所以可能需要更长时间实现。
如果一定要拍脑袋猜一下论文已经落地和还没落地的部分可能有多少的话,大致可能是这么个情况:最早的 KV cache 是 1 倍成本,简单量化之后可以做到 2 到 3 倍压缩,加上异常值处理可以到 3 到 4 倍,论文再往前推一点,大约到 4 到 4.5 倍。也就是说,大部分红利已经被拿走了,剩下的提升空间不大,而且代价越来越高。
这背后的原因也很清楚。前期压缩是在去掉冗余信息,后面面对的是有效信息,再压就会直接影响模型能力。误差不再是平滑变化,而是到某个点之后快速恶化。实现难度也不是线性增长,而是明显抬升。
从模型表现可以反推,现在的主流模型已经在用这些技术。长上下文能力、推理成本下降、性能稳定,这些现象本身就说明 KV cache 的效率已经被大幅优化。像 Google 这种级别的团队,大概率已经实现了低比特量化、异常值处理和一部分 KV 压缩。
也就是说,如果说google的这篇论文对存储可能有影响的话,其大部分的影响已经被体现了出来,还没体现出来的部分,其实施难度也会较之前更大。
更重要的是,这篇论文的意义不在于多省了多少内存,而在于给出了一个边界。KV cache 压缩这条路已经接近极限,剩下的提升空间很有限。接下来真正能带来变化的,不太可能再来自压缩本身,而是需要找到其他的路径。
顯示更多
3月23日,在休斯顿举行的CERAWeek年度能源会议上,英伟达(Nvidia)宣布了一项具有里程碑意义的战略转型:通过与能源技术初创公司Emerald AI以及多家美国主要能源巨头合作,将AI工厂从单纯的电力消耗者转变为电网的“灵活性资产”。
这一举措的核心在于利用英伟达全新的Vera Rubin DSX AI工厂参考设计和DSX Flex软件库,使数据中心具备与电网实时互动的能力,从而在缓解算力扩张带来的电力瓶颈的同时,增强电网的可靠性。
通过英伟达的DSX Flex架构,能源公司可以与AI工厂签订协议,在电力紧张时段动态下调AI负载,相当于为电网提供了一个巨大的“虚拟电池”。这种“需求侧响应”模式使公用事业公司无需建设新的峰值电厂即可服务更多客户,从而大幅提升其资本回报率(ROIC)。
顯示更多
Cloudflare 今天官宣推出的 AI Sandbox(也被称为 Containers / Dynamic Workers),听起来像是一个测试用的“代码沙盒”,但如果放进 AI Agent 的完整工作流里,它其实是 AI 时代的执行层基础设施,而不是一个简单的开发或测试工具。
一个典型的 Agent 工作流可以拆成:理解任务、规划步骤、选择工具、执行任务、读取结果、再决策并循环。其中,LLM 负责“想”,真正“干活”的部分发生在执行阶段。
问题在于,AI 生成的代码是不可信的,用户输入同样不可信,而生产环境又必须支持多租户隔离。这三点叠加,决定了执行必须发生在一个隔离、安全、可控的环境中——这正是 Sandbox 的存在意义。
因此,Sandbox 并不是“某些步骤会用到的工具”,而是 Agent 体系中的一个固定节点:只要涉及代码执行、文件处理、数据分析、系统调用(如 shell、依赖安装)、或者长时间运行任务,这些步骤都会进入 Sandbox。反过来,纯推理、文本生成、简单 API 调用、业务状态管理等,通常仍然留在 LLM 或主系统中。最终形成的结构是:LLM 负责决策,Worker 负责编排,Sandbox 负责执行。
这也解释了为什么 Sandbox 会从“测试工具”演变为“生产基础设施”。早期的典型场景是 notebook、code interpreter、在线 IDE,看起来更像开发辅助工具。但一旦 Agent 进入生产环境,执行就成为主路径:一个任务中,LLM 调用可能只有十几次,而代码执行可能发生几十甚至上百次。如果没有 Sandbox,这些执行要么不安全,要么不可控,系统无法稳定上线。换句话说,Demo 可以不用 Sandbox,但生产环境必须有等价机制。
从架构上看,生产级 Agent 会稳定在三层结构:LLM(决策)、Sandbox(执行)、以及外部系统(数据与状态)。这三者缺一不可。其中,Sandbox 的职责非常明确——提供一个可以安全运行不可信代码的环境,并具备文件系统、网络、依赖管理和资源隔离能力。
Cloudflare 的在执行层上的优势(做 Sandbox的优势),在于它把几项关键能力叠加在一起:全球边缘节点执行、毫秒级冷启动、基于 V8 isolate 的轻量运行时,以及与 Worker 体系的一体化调度。这种组合,使得 AI Agent 的执行可以在用户附近发生,同时具备高频调用所需的低延迟和低开销。相比之下,传统云厂商也能提供隔离执行环境,但往往在启动速度、调度路径和开发复杂度上存在明显差异。
更深一层看,这背后是一个范式变化。过去的 AI 系统,本质是“调用模型得到答案”;而 Agent 的形态,更像“写代码并执行任务”。一旦执行成为主路径,成本结构也会发生变化:模型推理的占比下降,而执行的占比上升。对应的基础设施分层,也从单一的模型层,扩展为“模型层 + 控制层 + 执行层”。
最近被频繁讨论的 AI Harness其实就是控制,本质上是让 AI 系统“可控、可重复、可工程化”的一层控制系统,负责任务编排、工具调用、策略约束、结果校验和重试机制。它解决的是“AI 应该做什么、怎么做”的问题。但 Harness 本身并不执行任务,一旦涉及代码运行、数据处理或系统操作,就必须调用执行环境。
Harness可以也需要跑在Sandbox 上。Harness 决定流程、调度工具、判断结果是否有效,而 Sandbox 负责真正运行代码、处理文件和完成计算。可以把整个体系理解为四层结构:LLM(模型层)负责推理,Harness(控制层)负责编排,Sandbox(执行层)负责落地执行,底层则是计算、存储和网络基础设施。
换句话说,Harness 让 AI“可控”,而 Sandbox 让 AI“可用”。
从这个角度看,Sandbox 的最终形态更接近一种运行时环境(runtime)。就像过去的应用离不开操作系统或容器一样,未来的 Agent 也离不开一个稳定、安全、可扩展的执行层。Cloudflare 正在做的,是把这层 runtime 标准化,并推向边缘网络。
如果 Agent 成为主流形态,那么 Sandbox 不只是会进入生产流程,而是会成为每一个 AI 请求背后的必经环节。届时,AI 的竞争将不再只发生在模型层,也会在控制层和执行层展开,而执行层很可能成为整个体系中最关键、也最容易被低估的一环。
免责声明:本文仅供参考,不构成投资建议。作者可能持有文章提及资产,管道未必客观。投资有风险,入市需谨慎。
顯示更多
如果按pe和forward pe来看,目前的美股估值比2025年解放日之后的低点要高
但forward pe增幅比pe低,这说明美股上市公司增长在加速
所以现在美股是否高估?
我倾向于认为没有,这只是大产业革命周期开始时的常态:高增长,高pe,低peg
顯示更多