深度穿透 CIFR:算力基建的估值陷阱、财务杠杆与 3.5 GW 隐秘管线
在确认了 Cipher Digital (CIFR) 从矿商向 AI 基建商的战略转型后,我们必须进一步剥离财务报表上的会计粉饰,直击其真实的企业价值与执行风险。对于交易算力基础设施 Alpha 收益的投资者而言,以下是五个最容易被市场误判的核心认知。
一、 估值错位:为什么不能看市盈率 (P/E)?
散户投资者最容易踩的陷阱,是将公司预期高达 7.87 亿美元的年化净运营收益(NOI)直接等同于净利润,从而算出十几倍的“低估值”。
真相是,NOI 只是项目层面的毛现金流。
CIFR 背负着 72 亿美元的巨额债务,且拥有庞大的重资产结构。在扣除每年约 5.4 亿美元的利息支出和 6.6 亿美元的折旧与摊销(D&A)后,其真实的净利润(Net Income)极大概率为微利或亏损。因此,其远期 P/E 实际上是失效的(N/A)。
正确的估值锚点:
基于当前 85 亿美元的市值和 72 亿美元的债务,CIFR 的远期 EV/EBITDA 约为 20.3x。这恰好落在成熟数据中心 REITs(18x-25x)的公允定价区间内。市场并没有瞎,目前的股价已经完美计价(Priced-in)了那 700 MW 已签约容量的价值。
二、 免费的期权:3.5 GW 剩余管线的终极博弈
CIFR 的总电网容量为 4.2 GW,扣除已定价的 700 MW,公司手里还捏着 3.5 GW 的未签约容量。
如果按远期满产状态保守估算,这 3.5 GW 对应的资产终极价值可能高达数百亿美元。但在当前的市值中,这部分资产几乎被定价为零。这种极端的折价,反映了基建投产的“地狱级”门槛。
要把这 3.5 GW 变为摇钱树,CIFR 必须跨越三座大山:
并网监管: 突破 ERCOT 等电网极其拥堵的审批批次(Batch Process)。
供应链窒息: 抢夺交货周期长达 3-4 年的高压变压器。
天量 CapEx: 筹集 350 亿至 500 亿美元的建设资金。
三、 租不如造?大厂为何甘做“冤大头”
面对上述天量资金和复杂工程,AWS、Google 等云巨头为何不绕开 CIFR,自己去德州拿地建厂以节省成本?
核心答案只有一个:算力竞赛中,时间比资本贵得多。
科技巨头如果从零开始排队拿地并网,至少需要再等 3-5 年,这意味着在下一代 LLM 军备竞赛中直接出局。通过向 CIFR 支付高额的租金溢价,巨头们买到的是“即刻投产的确定性”。同时,将基建重资产外包,也让云厂商得以将宝贵的现金流(CapEx)全部倾注于采购昂贵的 AI 芯片,实现表外融资和工程风险转移。
四、 终极 确认:合同带来的财务杠杆跃迁
CIFR 最核心的质变,并非挖到了多少比特币或建了多大的厂房,而是其资产负债表性质的彻底洗白。
拿到科技巨头长达 15 年的不可撤销合同,相当于获得了 AAA 级的信用背书。这将使 CIFR:
从高息的“矿企垃圾债”市场,跃迁至低息的投资级项目融资(Project Finance)市场。
资本成本(WACC)的大幅下行和贷款比例(LTV)的显著提升。
总结:
对于量化追踪和事件驱动型交易而言,CIFR 后续的“Alpha 催化剂”非常清晰:不再是电价的微调,而是能否顺利获得更低成本的银团循环信贷,以及能否将手中的 3.5 GW 管线分批转化为新的大厂长协。每一次融资成本的下降,都是直接增厚股东价值的纯粹收益。
免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议,dyor
顯示更多
财报前瞻:GNRC
这轮AI行情里,未来三到五年里,电力供给是确定性跟不上的。
在这个背景下,往复式发电机这条看起来“老旧”的技术路线,被重新推到了台前。
它成为唯一能在几个月内交付的电力方案。
以 Generac 为代表,这类公司提供的是内燃机驱动的发电机组,单机1–3MW,通过并联可以做到几十甚至上百MW。这种“scale-out”模式,本质上是用大量小设备拼出一个大系统。
理论上,这条路是走得通的。50台2MW设备就是100MW,再加冗余可以做到更高。但问题不在能不能,而在值不值。
第一,复杂度是指数级上升。每一台都有故障概率、维护需求、控制系统。系统稳定性要求超线性上升。
第二,效率差距不可忽视。往复式发动机效率大约在40–45%,而燃气轮机联合循环可以做到60%以上。这意味着长期运行成本差距非常明显。
第三,排放问题。通过类似 CECO Environmental 的后处理技术,可以把NOx、CO这些污染物降到合规水平,但CO₂基本无法解决。AI数据中心真正关心的是碳排放,这一点决定了往复式方案很难成为长期主流。
所以,往复式发电机的真实定位不是替代燃气轮机,而是填补时间缺口。
在这个链条里,不只是 Generac,更核心的玩家其实是 Cummins 和 Caterpillar。三者技术路线一样,都是往复式发电机,但差异在系统能力和客户关系。后两者长期服务工业和数据中心客户,在大规模并联、电力系统集成、全球服务能力上明显更强。
发电机上面还有系统公司,比如 Eaton、Schneider Electric、Vertiv。这些公司不做发动机本体,但掌握配电、UPS、电力电子和调度系统,是整个数据中心电力的“架构师”。发电机在他们体系里只是一个模块,可以替换、可以切换供应商。
这是Generac向上突破的阻力。
GNRC可以做microgrid,可以把发电机、储能和控制系统整合起来,但要成为系统玩家,必须补齐电力电子、配电、UPS这些核心能力,同时进入hyperscaler的设计体系。这是能力重构,长周期过程。
因此,Generac更现实的位置,是分布式电力子系统提供商,而不是系统控制者。
但这一轮往复式发电机的订单增长,在2026年,C&I业务(尤其数据中心相关)增长会明显加速。2027年大概率是外溢订单的高点,因为电力缺口在那一年最严重。
这件事的本质,不是技术革命,而是供给错配。
往复式发电机吃到的,是一个典型的“时间套利”机会。谁能在电力最短缺的几年里提供可交付的方案,谁就能拿到订单。
免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
CMP slurry这是个典型的隐形冠军赛道,过去长期被当成耗材:需求跟着晶圆产能走,技谈不上影响产业格局。但随着先进封装特别是Hybrid bonding的推进,事情正在发生变化。
如果从上游结构来看,CMP slurry的约束是一种多因素叠加的结果:
最底层是高纯材料,比如colloidal silica和ceria,这些材料本身纯度要求极高,而且需要做到纳米级粒径控制以及极窄的分布。这一点有门槛,但仍然属于可以通过工程能力逐步逼近的领域。
再往上是化学体系。CMP不是单纯的机械抛光,而是化学反应与机械作用的耦合过程,pH值、氧化剂、分散剂、材料种类之间高度联动。同一个配方在不同材料、不同节点上的表现可以完全不同。这一层虽然复杂,依然是可以通过实验与调参解决的问题。
供应链层面也存在约束,比如高纯化学品和部分原材料的交付周期较长,甚至会受到地缘因素影响,但这些更多影响节奏,而不是决定格局。
真正决定这个领域的公司竞争优势的,是工艺数据与客户绑定。CMP最终卖的不是材料,而是结果——去除速率、表面粗糙度以及缺陷率。这些指标并不由配方单独决定,而是与设备参数、晶圆工艺、节点结构共同作用的结果。
同一个slurry,在不同客户、不同工艺条件下表现差异很大,而调优过程高度依赖长期数据积累。因此,CMP的核心壁垒并不在原材料,而在于能否形成一个持续反馈的工艺数据闭环。
Hybrid bonding把这个问题进一步放大。在传统micro bump时代,CMP是必需步骤,但并不是决定性因素;进入Hybrid bonding之后,表面粗糙度需要控制在亚纳米级,缺陷几乎不可容忍,CMP直接决定了bonding是否能够成功。换句话说,CMP从一个“流程中的环节”,变成了“良率的前置条件”。当一个环节开始直接决定良率时,它在产业链中的地位就会发生质变。
CMP slurry本身是一个寡头市场,Entegris和Fujimi Incorporated是最核心的两家公司,但两者的路径并不完全相同。Fujimi在CMP本身的能力上非常强,是典型的“纯粹型玩家”;而Entegris通过并购和扩展,覆盖了slurry、前驱体、过滤、污染控制等多个环节,使其不只是一个材料供应商,而更像一个横跨多个工艺节点的系统参与者。
上游材料端则由Cabot Corporation、Evonik Industries以及Resonac Holdings等公司提供硅基或铈基磨料,这些公司在质量上至关重要,但价值更多体现在“供给端保障”,而不是定价权。化学体系则由BASF、Merck Group、Dow等公司提供关键添加剂,它们决定了配方的上限,但并不直接参与客户工艺验证。设备和检测端,包括Applied Materials、Lam Research以及KLA Corporation,则提供了工艺环境与缺陷检测能力,是另一套并行但高度耦合的体系。
在Hybrid bonding和HBM的拉动下,行业弹性并不会平均分布,而是集中在少数能够参与“工艺定义”的公司上。
Entegris的弹性来自三个维度叠加:
一是CMP需求提升带来的量;
二是工艺复杂度上升带来的价格能力;
三是其跨环节能力带来的份额与参与度提升。
Fujimi Incorporated则更多体现为纯粹的CMP beta,需求一旦爆发,其增长会非常直接。
材料端如Resonac Holdings会受益于ceria需求提升,但本质仍然是“量的放大”,而不是工艺溢价。
中国厂商如Anji Microelectronics Technology和Hubei Dinglong理论上弹性更大,因为基数低,但在缺陷控制和长期稳定性上仍需时间验证。
如果把问题再往前推一步,真正值得关注的是谁能建立“缺陷—工艺—良率”之间的映射关系,从而成为工艺控制的关键节点。
最接近这一位置的可能是Entegris。它通过在材料、过滤、污染控制等多个环节的布局,获得了更丰富的数据入口,有机会把不同环节的信息连接起来,形成对缺陷与良率的理解。
如果这种能力持续深化,CMP未来的商业模式可能会从“材料销售”演变为某种形式的“工艺能力输出”,即客户购买的不再只是slurry,而是稳定的良率结果。
总的来说,CMP正在从一个可替代的耗材,变成一个决定良率的关键变量。当一个环节开始决定良率,它的定价权、话语权以及在产业链中的位置,都会随之重写。
免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
先进封装的”耗材接棒”叙事最近很热,逻辑链也确实成立。但要理解为什么材料战场会从underfill转向CMP slurry,得先搞清楚一个更底层的技术拐点。
Micro bump方案同时撞上了三面墙。第一,bump pitch缩到25μm以下时solder bridging风险飙升,良率断崖。第二,JEDEC对HBM封装高度有硬限制,每层die加上micro bump加上underfill要吃掉40-50μm,堆到16层已经是物理极限,往20层走厚度预算根本不够。第三,underfill的thermal conductivity只有0.2-0.5 W/m·K,铜是401 W/m·K,差了三个数量级。每多堆一层die,中心层的junction temperature就更难控制。三个约束的共同解指向同一件事:取消solder和underfill,让copper直接做diffusion bonding。
Hybrid bonding解决了pitch、高度、散热三个问题,但代价是把容错率压到了atomic level。Micro bump时代表面粗糙度几十纳米就能工作,hybrid bonding要求Ra降到sub-0.5nm,任何一颗纳米级的particle都会在bonding interface形成void,后续thermal cycling会把void扩展成crack。这就是CMP slurry和Cu plating additives变成新咽喉的根本原因,配方质量直接等于bonding yield,bonding yield直接等于HBM产能。
但问题是,这条耗材链上谁真正有定价权。台厂的强项一直在设备和通路端。弘塑做ECP设备、辛耘做wet process清洗、中砂做pad和diamond disc,全部围绕化学品消耗量做文章,本身不掌握配方。崇越和华立是代理通路,帮信越、Fujimi把材料送进产线。真正自研CMP slurry配方的只有达兴和长兴,体量跟Fujimi、Entegris完全不在一个量级。化学配方的壁垒跟设备不一样,设备可以逆向工程迭代追赶,配方是几十年经验数据的堆叠,一款slurry打进台积电标准制程通常五到十年不会被替换。达兴说它的CMP slurry已经应用于N2并供货Arizona,如果属实,至少过了初步验证。但”应用于”和”规模化供货”之间的距离,有时候比技术本身还远。
资金从CoWoS设备capex转向耗材opex,方向没问题。但耗材链上真正有定价权的那一段在谁手里,市场似乎还没想清楚。
顯示更多
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”?
AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。
从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。
产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。
在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。
这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。
很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。
从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。
真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。
这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。
CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。
在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。
难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。
CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存:
核心AI集群:定制CPO,追求极致性能
大规模部署:标准化CPO或pluggable,追求成本与灵活性
即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。
对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。
整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。
从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。
免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
财报前瞻:CECO Environmental(以下简称“CECO”)即将于 4 月 28 日发布财报。
这家公司的核心增长逻辑已从传统工业环保彻底转向“AI 数据中心电力补丁”。由于电网扩容缓慢,科技巨头(Hyperscalers)正大规模转向“表后”天然气调峰发电,而 CECO 提供的超低排放控制技术(如超低 NOx 和 VOC 治理系统)是这些调峰电站获批建设并运行的刚需“准入证” 。
市场目前最大的看点是 CEO 在 3 月份预告的“史上最大单笔订单”。这笔订单极大概率与 AI 数据中心相关。最可能的来源是软银旗下的 SB Energy Portsmouth 项目——该项目计划在俄亥俄州建设 9.2 GW 的燃气发电厂,专门用于支撑一个 10 GW 的 AI 数据中心集群,这类巨型项目正是 CECO 重型燃气轮机配套系统的核心战场。
从财务数据看,CECO 手握 7.93 亿美元创纪录积压订单,同比激增 47% 。2026 年全年订单目标已由原来的不足 10 亿上调至 15 亿美元以上。尽管价值 22 亿美元的 Thermon (THR) 并购案带来了短期股权稀释担忧,但 THR 高达 23% 的利润率将显著优化合并后的损益表,且交易已获董事会全票通过。
筹码端的技术面指标显示出强烈的“空头挤压(Short Squeeze)”潜力。目前 CECO 的做空比例高达 12%,短线平仓天数达 5.4 天 。随着机构投资者(如 American Century)大幅增持,一旦财报确认毛利率反弹或宣布巨额大单落地,大量空头仓位很可能将被迫回补。
免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
财报透视:WST 暴涨 14%,揭示医药供应链的“AI 加速”逻辑
在刚刚发布的 2026 财年第一季度财报中,West Pharmaceutical Services (WST) 以超越市场预期 27% 的盈利表现震惊了华尔街。作为制药行业的“包装收费站”,WST 的这份财报远不止数字增长那么简单,它实质上是生物医药行业进入“商业化收割期”的强烈信号。
核心亮点:GLP-1 引发的结构性红利
WST 本季营收达 8.449 亿美元,同比增长 21%。其爆发力主要源于:
重磅药物放量: 以 GLP-1(减肥/糖尿病药物)为首的注射剂需求激增,直接带动了高价值(HVP)包装组件和自助注射设备的订单。
产能释放: 欧洲生产线爬坡效率超预期,成功承接了下游药企全球扩产的订单压力。
利润结构优化: 随着复杂药物占比提升,运营利润率从 15.3% 跃升至 21%,体现了极强的议价权。
深度解读:AI 究竟在其中扮演什么角色?
虽然 WST 是一家物理制造企业,但其业绩弹性本质上是 “AI + 医疗” 效率红利的终端体现:
从“出药率”到“上市率”: AI 通过蛋白质折叠预测和模拟筛选,显著提高了新药研发的成功率。这意味着更多高价值、复杂的生物药剂(如多肽药物)走出了实验室,进入了 WST 的包装流水线。
全产业链提速: AI 不仅加速了药物发现,还通过优化临床设计和申报流程,压缩了新药从获批到大规模上市的时间窗。WST 订单的“陡峭”增长,正是这种行业节奏变快的物理映射。
交付方式的智能化: 为了延长专利期和提升合规性,药企正加速将传统剂型转化为智能交付设备。AI 驱动的数字医疗趋势,正让 WST 的产品从“耗材”变成“精密系统”。
策略思考
对于宏观投资者而言,WST 的表现是一个明确的信号:AI 对医药行业的改变已不再停留于研发端的叙事,而是开始转化为供应链上的实打实订单。 当市场还在争论 AI 算力时,医药供应链中的“核心收费站”已经开始享受 AI 带来的商业化加速红利。只要新药上市的节奏持续被技术手段压缩,这类掌握精密交付关卡的公司,将持续展现出超越周期的确定性。
免责声明:本人观点十分主观,非投资建议dyor
顯示更多
Onto Innovation最近入股 Rigaku Holdings 27% 股权,这是一次非常明确的战略转向:从“表面检测”走向“3D结构检测”,本质是在卡位先进封装时代的工艺控制入口。
Onto的业务核心是半导体制造中的process control,也就是检测(inspection)、计量(metrology)、封装光刻和软件系统。它决定良率,和klac一样,是典型的“复杂性收费者”。随着工艺从2D走向3D,这类公司的重要性正在系统性提升。
过去,检测主要依赖光学和电子束,解决的是“看得见”的问题。但在HBM、CoWoS、chiplet和混合键合等结构下,缺陷越来越隐藏在内部,传统方法开始失效。X-ray成为必需工具,这正是Onto入股Rigaku的核心逻辑——补齐内部检测能力,从而覆盖“表面+内部”的完整检测链条。
从市场结构看,Onto未来真正的机会不在大盘,而在结构性细分。
先进封装检测的增速高于行业平均,而涉及3D结构(如X-ray、混合键合检测)的细分领域可能更高。公司当前业务重心已经明显向先进封装倾斜,这使其增长弹性显著高于行业平均。
竞争格局上,行业由 KLA Corporation 主导,市占率超过一半,是标准制定者;Applied Materials 和 ASML 等大型设备商具备跨界能力,可以通过整线方案压制单点供应商;而Camtek、Nova等公司则在细分领域与Onto直接竞争。Onto本身处于中间位置:产品线不够全面,但在先进封装环节具备一定深度。
其优势在于提前卡位先进封装,产品结构向高增长区域集中,同时具备一定技术门槛和盈利能力;但劣势也很清晰,包括客户绑定较弱、系统能力不完整,以及在部分高端检测能力上仍落后于龙头。整体来看,护城河处于中等水平,尚未形成不可替代性。
决定公司未来地位的关键变量是混合键合。
随着互连从bump走向直接键合,对overlay精度和界面缺陷控制的要求大幅提升,检测和计量的重要性显著上升。Onto在overlay和先进封装检测上已有基础,并通过X-ray补齐能力,因此可以覆盖混合键合检测链的大部分环节。该技术有望在未来3–5年持续推动其相关业务高于行业增速。
Onto的投资逻辑并不完全跟随半导体周期,而在于是否能够从先进封装中的“参与者”,升级为3D结构检测中的“关键节点”。混合键合决定其能否获得稳定超额增长。如果能够在X-ray和3D检测上建立能力闭环,其护城河有望明显加宽;反之,则仍将处于被KLA压制、被大厂边缘化的中间位置。
本质上,这家公司正在从一个设备供应商,向“复杂性控制入口”转型。能否完成这一转型,决定了它未来5年的上限。
免责声明:本人持有文章提及股票,观点十分主观,非投资建议dyor
顯示更多
分析:scaling law的范式转移:scale-up、scale-out和scale-lean
过去两年,随着ai的发展,质疑scaling law的声音越来越多,但其实scaling law不但一直都在,而且还在不断增强。
如果我们稍微回顾一下历史,从 GPT-3 到 GPT-4,本质上都是在把模型做大——参数更多、数据更多、算力更强。这就是典型的 Scale Up。
但从 GPT-4 开始,大家开始越来越多地讨论“推理”。不是简单的生成,而是多步推理、链式思考、更复杂的问题拆解。
模型能力的提升,不再只是来自参数规模,而是来自推理过程本身的优化。这其实是一个很微妙但关键的变化:行业开始意识到,“怎么用模型”,和“模型有多大”,同样重要。
直到最近,像 OpenCLaw、AutoResearch 代表的agent生态开始大火,本质上已经不是在讨论模型本身了,而是在讨论一个系统。模型只是其中一部分,更重要的是任务如何拆解、如何调用工具、如何在多个步骤中反复执行和修正。
这时候,能力的提升,已经不再主要依赖模型本身,而是依赖结构。通过多次调用、流程编排、工具接入,把原本单点能力扩展成一个可以执行复杂任务的系统。这一阶段,其实就是 Scale Out。
但从推理和agetn生态开始跑起来之后,一个更现实的问题马上出现了:成本。
推理一旦复杂化,Agent一旦进入多步执行,调用次数是指数级增长的。推理成本迅速上升,延迟变得不可接受,底层的内存和带宽开始成为瓶颈。你会发现,问题已经从“能力不够”,变成了“跑不起”。
于是最近这段时间,越来越多的论文和工程实践,都开始研究如何降本增效。
比如 DeepSeek 之前的Engram,Google 最近的 TurboQuant,本质上是在做更极致的存储优化、压缩和效率提升 -- 在不显著增加算力的情况下,让系统变得更强、更便宜、更快。
我们可以把它叫做 Scale Lean。
把这三条路径综合起来,可能更能帮助我们把握行业未来的发展。
最早是 Scale Up 占绝对主导,大家都在拼模型大小。然后是 Scale Out 开始出现,系统能力逐渐成为新的增长点。再到现在,Scale Lean 开始变得越来越重要,因为它直接决定这些系统运行成本。
这三者不是替代关系,而是叠加关系。
更重要的是,Scale Up、Scale Out、Scale Lean 三条路径本身就是一个正反馈系统,它们会互相放大彼此的效果,从而加速整个AI进化。
模型变强(Scale Up),会让Agent系统更少出错、步骤更短、整体能力更稳定,从而放大Scale Out的效果;
而一旦系统复杂度上来,调用次数暴增,成本问题就会被迅速放大,这又反过来逼着整个行业去做效率优化,也就是Scale Lean。
等到效率真的被做下来之后,事情又会发生变化——更低的成本、更高的吞吐,会让更复杂的Agent系统变得可行,同时也让模型可以被更频繁地调用、训练和迭代,进一步推动Scale Up。
于是这三者之间形成了一种很典型的正反馈:Up让Out更强,Out逼Lean进化,Lean又反过来加速Up和Out。
AI的发展不再是单一变量的线性推进,而是一个多变量耦合的加速系统,一旦三个方向同时往前,整体能力的提升就很容易从“渐进式”变成“跳跃式”。
基于以上的讨论,我们可以得出一个结论,ai能力的增长速度,不但没有放缓,还在加速。
scaling law不但没有装墙,反而驶上了快车道。
顯示更多
制造奇点正在逼近:AI + 3D打印将孕育出自我迭代的机器
过去几十年,制造业的进步一直是线性的。工厂更大,机器更精密,效率更高,但本质没有改变:人类设计机器,机器生产产品。现在,这个结构正在发生第一次根本性的改变。
AI和3D打印的结合,正在让制造系统本身成为可以被改进的对象。一旦制造系统能够递归改进自身,制造能力就不再是线性增长,而会转向指数增长。这就是所谓的“制造奇点”。
但这个奇点不会以突然爆发的形式出现,而是通过一系列早期信号逐步显现。我们现在,正处于这个过程的最早阶段。
制造第一次变成“信息问题”
传统制造有一个根本限制:数字设计无法直接变成物理世界。
设计必须经过工厂、模具、供应链,才能成为产品。每一次改进,都需要昂贵的生产准备和漫长的周期。
3D打印改变了这一点。
它第一次让制造变成了一个直接的数字过程:
设计 → 直接制造
没有模具,没有复杂准备,没有规模门槛。这意味着制造第一次成为“信息驱动”的过程,而不是“资本驱动”的过程。
这一步本身已经足够重要,但真正的突破来自AI。
AI让设计本身成为自动化过程。过去,设计速度受限于工程师数量。现在,设计速度受限于算力。
当设计速度和制造速度都变成计算问题时,制造能力就可以像计算能力一样增长。
递归自我改进:制造系统第一次可以改进自身
更深层的变化在于,3D打印机可以制造改进自身的结构。
打印机可以打印:
更稳定的结构件
更轻的支架
更精密的运动组件
当AI参与这个过程时,循环就变成:
设计 → 打印 → 测试 → 改进 → 再打印 → 再改进
这是一个闭环。
过去,系统改进依赖人类。现在,系统本身参与改进。
这是制造领域第一次出现真正意义上的递归自我改进。
类似的循环已经在计算领域发生:
GPU训练AI → AI设计更好的GPU → 更好的GPU训练更强AI
制造领域正在进入同样的轨道。
就像vibe coding一样,vibe making将让制造第一次成为普通人的表达工具
过去,要制造一个产品,你必须掌握CAD建模、结构设计和制造知识。
现在,一个想法就足够:
描述结构 → 自动生成模型 → 直接打印
这被称为“vibe making”。
它和vibe coding的本质是一样的,只不过对象从软件变成了物理世界。
这意味着制造能力第一次从工程师扩展到普通人,人类第一次迎来制造平权
这也是为什么制造的核心正在从传统制造公司转向三类公司:
第一类,是提供计算能力的公司。因为计算决定设计速度。
第二类,是提供设计软件和设计平台的公司。因为设计成为核心环节。
第三类,是提供新一代打印系统的公司。因为它们是执行层。
制造正在变成一个计算问题,而不是一个资本问题。
当制造系统可以改进自身,改进速度就不再受限于人类。
制造成本将持续下降。
制造复杂度将持续上升。
创新速度将持续加快。
最终结果是,制造能力将像计算能力一样增长。
我们今天看到的不是爆发,而是爆发前的结构重组。
就像2005年的GPU行业,看起来平静,但已经无法逆转。
制造业正在进入同样的轨道。
顯示更多