註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

夜谈
@gntalktalk
提示词咒语工程师,神经网络病患者,ai硅基带路党
1.7K 正在關注    2.7K 粉絲
深度穿透 CIFR:算力基建的估值陷阱、财务杠杆与 3.5 GW 隐秘管线 在确认了 Cipher Digital (CIFR) 从矿商向 AI 基建商的战略转型后,我们必须进一步剥离财务报表上的会计粉饰,直击其真实的企业价值与执行风险。对于交易算力基础设施 Alpha 收益的投资者而言,以下是五个最容易被市场误判的核心认知。 一、 估值错位:为什么不能看市盈率 (P/E)? 散户投资者最容易踩的陷阱,是将公司预期高达 7.87 亿美元的年化净运营收益(NOI)直接等同于净利润,从而算出十几倍的“低估值”。 真相是,NOI 只是项目层面的毛现金流。 CIFR 背负着 72 亿美元的巨额债务,且拥有庞大的重资产结构。在扣除每年约 5.4 亿美元的利息支出和 6.6 亿美元的折旧与摊销(D&A)后,其真实的净利润(Net Income)极大概率为微利或亏损。因此,其远期 P/E 实际上是失效的(N/A)。 正确的估值锚点: 基于当前 85 亿美元的市值和 72 亿美元的债务,CIFR 的远期 EV/EBITDA 约为 20.3x。这恰好落在成熟数据中心 REITs(18x-25x)的公允定价区间内。市场并没有瞎,目前的股价已经完美计价(Priced-in)了那 700 MW 已签约容量的价值。 二、 免费的期权:3.5 GW 剩余管线的终极博弈 CIFR 的总电网容量为 4.2 GW,扣除已定价的 700 MW,公司手里还捏着 3.5 GW 的未签约容量。 如果按远期满产状态保守估算,这 3.5 GW 对应的资产终极价值可能高达数百亿美元。但在当前的市值中,这部分资产几乎被定价为零。这种极端的折价,反映了基建投产的“地狱级”门槛。 要把这 3.5 GW 变为摇钱树,CIFR 必须跨越三座大山: 并网监管: 突破 ERCOT 等电网极其拥堵的审批批次(Batch Process)。 供应链窒息: 抢夺交货周期长达 3-4 年的高压变压器。 天量 CapEx: 筹集 350 亿至 500 亿美元的建设资金。 三、 租不如造?大厂为何甘做“冤大头” 面对上述天量资金和复杂工程,AWS、Google 等云巨头为何不绕开 CIFR,自己去德州拿地建厂以节省成本? 核心答案只有一个:算力竞赛中,时间比资本贵得多。 科技巨头如果从零开始排队拿地并网,至少需要再等 3-5 年,这意味着在下一代 LLM 军备竞赛中直接出局。通过向 CIFR 支付高额的租金溢价,巨头们买到的是“即刻投产的确定性”。同时,将基建重资产外包,也让云厂商得以将宝贵的现金流(CapEx)全部倾注于采购昂贵的 AI 芯片,实现表外融资和工程风险转移。 四、 终极 确认:合同带来的财务杠杆跃迁 CIFR 最核心的质变,并非挖到了多少比特币或建了多大的厂房,而是其资产负债表性质的彻底洗白。 拿到科技巨头长达 15 年的不可撤销合同,相当于获得了 AAA 级的信用背书。这将使 CIFR: 从高息的“矿企垃圾债”市场,跃迁至低息的投资级项目融资(Project Finance)市场。 资本成本(WACC)的大幅下行和贷款比例(LTV)的显著提升。 总结: 对于量化追踪和事件驱动型交易而言,CIFR 后续的“Alpha 催化剂”非常清晰:不再是电价的微调,而是能否顺利获得更低成本的银团循环信贷,以及能否将手中的 3.5 GW 管线分批转化为新的大厂长协。每一次融资成本的下降,都是直接增厚股东价值的纯粹收益。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议,dyor
顯示更多
财报前瞻:GNRC 这轮AI行情里,未来三到五年里,电力供给是确定性跟不上的。 在这个背景下,往复式发电机这条看起来“老旧”的技术路线,被重新推到了台前。 它成为唯一能在几个月内交付的电力方案。 以 Generac 为代表,这类公司提供的是内燃机驱动的发电机组,单机1–3MW,通过并联可以做到几十甚至上百MW。这种“scale-out”模式,本质上是用大量小设备拼出一个大系统。 理论上,这条路是走得通的。50台2MW设备就是100MW,再加冗余可以做到更高。但问题不在能不能,而在值不值。 第一,复杂度是指数级上升。每一台都有故障概率、维护需求、控制系统。系统稳定性要求超线性上升。 第二,效率差距不可忽视。往复式发动机效率大约在40–45%,而燃气轮机联合循环可以做到60%以上。这意味着长期运行成本差距非常明显。 第三,排放问题。通过类似 CECO Environmental 的后处理技术,可以把NOx、CO这些污染物降到合规水平,但CO₂基本无法解决。AI数据中心真正关心的是碳排放,这一点决定了往复式方案很难成为长期主流。 所以,往复式发电机的真实定位不是替代燃气轮机,而是填补时间缺口。 在这个链条里,不只是 Generac,更核心的玩家其实是 Cummins 和 Caterpillar。三者技术路线一样,都是往复式发电机,但差异在系统能力和客户关系。后两者长期服务工业和数据中心客户,在大规模并联、电力系统集成、全球服务能力上明显更强。 发电机上面还有系统公司,比如 Eaton、Schneider Electric、Vertiv。这些公司不做发动机本体,但掌握配电、UPS、电力电子和调度系统,是整个数据中心电力的“架构师”。发电机在他们体系里只是一个模块,可以替换、可以切换供应商。 这是Generac向上突破的阻力。 GNRC可以做microgrid,可以把发电机、储能和控制系统整合起来,但要成为系统玩家,必须补齐电力电子、配电、UPS这些核心能力,同时进入hyperscaler的设计体系。这是能力重构,长周期过程。 因此,Generac更现实的位置,是分布式电力子系统提供商,而不是系统控制者。 但这一轮往复式发电机的订单增长,在2026年,C&I业务(尤其数据中心相关)增长会明显加速。2027年大概率是外溢订单的高点,因为电力缺口在那一年最严重。 这件事的本质,不是技术革命,而是供给错配。 往复式发电机吃到的,是一个典型的“时间套利”机会。谁能在电力最短缺的几年里提供可交付的方案,谁就能拿到订单。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
CMP slurry这是个典型的隐形冠军赛道,过去长期被当成耗材:需求跟着晶圆产能走,技谈不上影响产业格局。但随着先进封装特别是Hybrid bonding的推进,事情正在发生变化。 如果从上游结构来看,CMP slurry的约束是一种多因素叠加的结果: 最底层是高纯材料,比如colloidal silica和ceria,这些材料本身纯度要求极高,而且需要做到纳米级粒径控制以及极窄的分布。这一点有门槛,但仍然属于可以通过工程能力逐步逼近的领域。 再往上是化学体系。CMP不是单纯的机械抛光,而是化学反应与机械作用的耦合过程,pH值、氧化剂、分散剂、材料种类之间高度联动。同一个配方在不同材料、不同节点上的表现可以完全不同。这一层虽然复杂,依然是可以通过实验与调参解决的问题。 供应链层面也存在约束,比如高纯化学品和部分原材料的交付周期较长,甚至会受到地缘因素影响,但这些更多影响节奏,而不是决定格局。 真正决定这个领域的公司竞争优势的,是工艺数据与客户绑定。CMP最终卖的不是材料,而是结果——去除速率、表面粗糙度以及缺陷率。这些指标并不由配方单独决定,而是与设备参数、晶圆工艺、节点结构共同作用的结果。 同一个slurry,在不同客户、不同工艺条件下表现差异很大,而调优过程高度依赖长期数据积累。因此,CMP的核心壁垒并不在原材料,而在于能否形成一个持续反馈的工艺数据闭环。 Hybrid bonding把这个问题进一步放大。在传统micro bump时代,CMP是必需步骤,但并不是决定性因素;进入Hybrid bonding之后,表面粗糙度需要控制在亚纳米级,缺陷几乎不可容忍,CMP直接决定了bonding是否能够成功。换句话说,CMP从一个“流程中的环节”,变成了“良率的前置条件”。当一个环节开始直接决定良率时,它在产业链中的地位就会发生质变。 CMP slurry本身是一个寡头市场,Entegris和Fujimi Incorporated是最核心的两家公司,但两者的路径并不完全相同。Fujimi在CMP本身的能力上非常强,是典型的“纯粹型玩家”;而Entegris通过并购和扩展,覆盖了slurry、前驱体、过滤、污染控制等多个环节,使其不只是一个材料供应商,而更像一个横跨多个工艺节点的系统参与者。 上游材料端则由Cabot Corporation、Evonik Industries以及Resonac Holdings等公司提供硅基或铈基磨料,这些公司在质量上至关重要,但价值更多体现在“供给端保障”,而不是定价权。化学体系则由BASF、Merck Group、Dow等公司提供关键添加剂,它们决定了配方的上限,但并不直接参与客户工艺验证。设备和检测端,包括Applied Materials、Lam Research以及KLA Corporation,则提供了工艺环境与缺陷检测能力,是另一套并行但高度耦合的体系。 在Hybrid bonding和HBM的拉动下,行业弹性并不会平均分布,而是集中在少数能够参与“工艺定义”的公司上。 Entegris的弹性来自三个维度叠加: 一是CMP需求提升带来的量; 二是工艺复杂度上升带来的价格能力; 三是其跨环节能力带来的份额与参与度提升。 Fujimi Incorporated则更多体现为纯粹的CMP beta,需求一旦爆发,其增长会非常直接。 材料端如Resonac Holdings会受益于ceria需求提升,但本质仍然是“量的放大”,而不是工艺溢价。 中国厂商如Anji Microelectronics Technology和Hubei Dinglong理论上弹性更大,因为基数低,但在缺陷控制和长期稳定性上仍需时间验证。 如果把问题再往前推一步,真正值得关注的是谁能建立“缺陷—工艺—良率”之间的映射关系,从而成为工艺控制的关键节点。 最接近这一位置的可能是Entegris。它通过在材料、过滤、污染控制等多个环节的布局,获得了更丰富的数据入口,有机会把不同环节的信息连接起来,形成对缺陷与良率的理解。 如果这种能力持续深化,CMP未来的商业模式可能会从“材料销售”演变为某种形式的“工艺能力输出”,即客户购买的不再只是slurry,而是稳定的良率结果。 总的来说,CMP正在从一个可替代的耗材,变成一个决定良率的关键变量。当一个环节开始决定良率,它的定价权、话语权以及在产业链中的位置,都会随之重写。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
先进封装的”耗材接棒”叙事最近很热,逻辑链也确实成立。但要理解为什么材料战场会从underfill转向CMP slurry,得先搞清楚一个更底层的技术拐点。 Micro bump方案同时撞上了三面墙。第一,bump pitch缩到25μm以下时solder bridging风险飙升,良率断崖。第二,JEDEC对HBM封装高度有硬限制,每层die加上micro bump加上underfill要吃掉40-50μm,堆到16层已经是物理极限,往20层走厚度预算根本不够。第三,underfill的thermal conductivity只有0.2-0.5 W/m·K,铜是401 W/m·K,差了三个数量级。每多堆一层die,中心层的junction temperature就更难控制。三个约束的共同解指向同一件事:取消solder和underfill,让copper直接做diffusion bonding。 Hybrid bonding解决了pitch、高度、散热三个问题,但代价是把容错率压到了atomic level。Micro bump时代表面粗糙度几十纳米就能工作,hybrid bonding要求Ra降到sub-0.5nm,任何一颗纳米级的particle都会在bonding interface形成void,后续thermal cycling会把void扩展成crack。这就是CMP slurry和Cu plating additives变成新咽喉的根本原因,配方质量直接等于bonding yield,bonding yield直接等于HBM产能。 但问题是,这条耗材链上谁真正有定价权。台厂的强项一直在设备和通路端。弘塑做ECP设备、辛耘做wet process清洗、中砂做pad和diamond disc,全部围绕化学品消耗量做文章,本身不掌握配方。崇越和华立是代理通路,帮信越、Fujimi把材料送进产线。真正自研CMP slurry配方的只有达兴和长兴,体量跟Fujimi、Entegris完全不在一个量级。化学配方的壁垒跟设备不一样,设备可以逆向工程迭代追赶,配方是几十年经验数据的堆叠,一款slurry打进台积电标准制程通常五到十年不会被替换。达兴说它的CMP slurry已经应用于N2并供货Arizona,如果属实,至少过了初步验证。但”应用于”和”规模化供货”之间的距离,有时候比技术本身还远。 资金从CoWoS设备capex转向耗材opex,方向没问题。但耗材链上真正有定价权的那一段在谁手里,市场似乎还没想清楚。
顯示更多
0
4
42
10
轉發到社區
行业分析:AI光互连全景:谁是下一个“HBM级瓶颈”? AI算力的瓶颈正在从计算转向带宽。随着GPU规模扩大,节点间通信接近N²级增长,电互连在功耗与距离上逐步触顶,光互连从可选项变成刚需。这一变化不只是需求扩张,而是产业结构的重排:光开始从数据中心边缘进入系统核心,甚至进入封装内部。 从底层看,硅光(SiPho)是在硅基上做出一整套光通信器件:波导负责传光,调制器把电信号变成光,探测器再把光变回电。它解决的是带宽与能效问题。硅本身不能发光,激光器依赖InP、GaAs等III-V材料,因此整个体系天然是“硅 + III-V”的异构结构。 产业链可以拆成四层:上游材料(InP与激光材料)、中游核心器件(激光器、硅光芯片)、模块与封装(光模块、CPO)、以及系统与网络架构。价值分配并不均匀。最稀缺的是光源,也就是激光器及其背后的InP体系,这一层类似算力链中的HBM,是物理瓶颈;再往下是硅光与光芯片,决定光电融合是否可行;光模块更偏制造与组装,周期性更强;真正的高价值封装集中在系统级CPO。 在硅光制造这一层,Tower Semiconductor 和 GlobalFoundries 是典型代表。它们本质是foundry,把光子芯片从设计变成晶圆。器件公司是它们的客户,而不是供应商。两者路径不同:TSEM更像工艺专家,擅长定制和复杂结构,解决“别人做不出来”的问题;GF更像平台型foundry,提供标准化工艺和规模能力,让更多客户可以复制。 这也解释了近期股价的差异。TSEM的上涨几乎直接由AI光互连驱动,尤其是硅光需求进入订单兑现阶段;GF更多受益于AI整体需求扩散,硅光只是其中一部分。前者是主线变量,后者更像beta。 很多人会误以为竞争在晶圆尺寸,比如300mm。但在SiPho、模拟、RF这些领域,关键不在晶圆,而在工艺复杂度、良率和客户绑定。真正决定竞争力的是能否稳定量产复杂光电结构,而不是晶圆大小。 从全球格局看,中国在光模块层面占据优势,但在SiPho制造仍处于早期阶段。差距不在技术原理,而在量产能力和客户验证。短期内,由于订单和经验的正反馈,差距在拉大;中期随着下游需求反向驱动,上游有望追赶。这一结构和HBM不同,SiPho不属于天然寡头,更可能走向多极竞争。 真正改变产业结构的是CPO(co-packaged optics)。CPO不是一个器件,而是一种封装形态:把光芯片与算力芯片封在一起,使光从“外部模块”变成“系统内部的一部分”。实现路径是先在SiPho晶圆上完成器件制造,筛选良品(KGD),切割成die,再与GPU/ASIC、HBM等一起进行异构集成,通常采用平面并排而非堆叠。 这一变化的核心结果是:硅光从“独立产品”变成“系统中的一层”。功能重要性不变,但定价权下降。过去光模块可以独立定价;在CPO中,价值更多被系统整合者吸收。掌握先进封装能力的厂商更接近控制节点,这也是为什么TSMC和Intel在这一阶段具备更强话语权,而TSEM和GF更接近中游die供应商。 CPO对技术提出了三大硬约束:功耗、带宽密度和封装耦合。功耗决定系统是否可持续,带宽密度决定扩展能力,封装耦合决定良率和成本。这三点直接推动硅光工艺进入新阶段。 在这一过程中,低损耗波导成为关键基础。波导是芯片内部的“光通道”,损耗以dB/cm衡量。0.1 dB/cm与1 dB/cm的差异,会在封装内线性累积,直接决定系统功耗与成本。当前主流量产水平在0.3–1 dB/cm,先进工艺可到0.1 dB/cm,实验室中的氮化硅(SiN)接近0.01 dB/cm,但距离大规模量产仍有距离。材料路径也逐渐清晰:硅波导受限于粗糙度和折射率,长期趋势是向SiN迁移。 难点不在单点,而在多重极限叠加:侧壁粗糙度、PECVD氢吸收、SiN应力、弯曲损耗、光纤耦合等因素同时作用。这也是为什么真正的优势来自“全栈工艺控制”,而不是某个单一技术突破。 CPO不仅改变技术路径,也改变竞争结构。未来不会出现单一路线,而是分层共存: 核心AI集群:定制CPO,追求极致性能 大规模部署:标准化CPO或pluggable,追求成本与灵活性 即使在CPO内部,也会分化为“高性能CPO”和“标准化CPO”,类似HBM与DDR的关系:前者吃价值,后者吃规模。 对TSEM和GF来说,这种分化进一步强化各自路径。TSEM更靠近高性能CPO,承接定制需求,有机会成为局部瓶颈;GF更靠近标准化CPO,承担规模扩张,是产业的放大器。 整条链可以压缩成一句话:材料决定能不能做,芯片决定性能上限,封装决定系统价值,系统厂决定利润分配。对应到算力链,InP激光器类似HBM,CPO类似GPU封装,光模块类似服务器组装,而硅光晶圆厂更像中间层的chiplet供应商。 从投资角度看,最确定的机会在光源,这是物理瓶颈;最大弹性在硅光与CPO,一旦路径跑通会被放大;光模块是顺周期;封装稳定吃利润但不容易爆发;系统层存在潜在黑马,但取决于架构演进。硅光不会消失,但正在被“吞入系统”。未来真正的“HBM时刻”,更可能出现在光源层或系统级封装,而不是封装之前的中游晶圆环节。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
0
15
326
106
轉發到社區
财报前瞻:CECO Environmental(以下简称“CECO”)即将于 4 月 28 日发布财报。 这家公司的核心增长逻辑已从传统工业环保彻底转向“AI 数据中心电力补丁”。由于电网扩容缓慢,科技巨头(Hyperscalers)正大规模转向“表后”天然气调峰发电,而 CECO 提供的超低排放控制技术(如超低 NOx 和 VOC 治理系统)是这些调峰电站获批建设并运行的刚需“准入证” 。 市场目前最大的看点是 CEO 在 3 月份预告的“史上最大单笔订单”。这笔订单极大概率与 AI 数据中心相关。最可能的来源是软银旗下的 SB Energy Portsmouth 项目——该项目计划在俄亥俄州建设 9.2 GW 的燃气发电厂,专门用于支撑一个 10 GW 的 AI 数据中心集群,这类巨型项目正是 CECO 重型燃气轮机配套系统的核心战场。 从财务数据看,CECO 手握 7.93 亿美元创纪录积压订单,同比激增 47% 。2026 年全年订单目标已由原来的不足 10 亿上调至 15 亿美元以上。尽管价值 22 亿美元的 Thermon (THR) 并购案带来了短期股权稀释担忧,但 THR 高达 23% 的利润率将显著优化合并后的损益表,且交易已获董事会全票通过。 筹码端的技术面指标显示出强烈的“空头挤压(Short Squeeze)”潜力。目前 CECO 的做空比例高达 12%,短线平仓天数达 5.4 天 。随着机构投资者(如 American Century)大幅增持,一旦财报确认毛利率反弹或宣布巨额大单落地,大量空头仓位很可能将被迫回补。 免责声明:本人持有文章中提及资产,观点充满偏见,非投资建议dyor
顯示更多
财报透视:WST 暴涨 14%,揭示医药供应链的“AI 加速”逻辑 在刚刚发布的 2026 财年第一季度财报中,West Pharmaceutical Services (WST) 以超越市场预期 27% 的盈利表现震惊了华尔街。作为制药行业的“包装收费站”,WST 的这份财报远不止数字增长那么简单,它实质上是生物医药行业进入“商业化收割期”的强烈信号。 核心亮点:GLP-1 引发的结构性红利 WST 本季营收达 8.449 亿美元,同比增长 21%。其爆发力主要源于: 重磅药物放量: 以 GLP-1(减肥/糖尿病药物)为首的注射剂需求激增,直接带动了高价值(HVP)包装组件和自助注射设备的订单。 产能释放: 欧洲生产线爬坡效率超预期,成功承接了下游药企全球扩产的订单压力。 利润结构优化: 随着复杂药物占比提升,运营利润率从 15.3% 跃升至 21%,体现了极强的议价权。 深度解读:AI 究竟在其中扮演什么角色? 虽然 WST 是一家物理制造企业,但其业绩弹性本质上是 “AI + 医疗” 效率红利的终端体现: 从“出药率”到“上市率”: AI 通过蛋白质折叠预测和模拟筛选,显著提高了新药研发的成功率。这意味着更多高价值、复杂的生物药剂(如多肽药物)走出了实验室,进入了 WST 的包装流水线。 全产业链提速: AI 不仅加速了药物发现,还通过优化临床设计和申报流程,压缩了新药从获批到大规模上市的时间窗。WST 订单的“陡峭”增长,正是这种行业节奏变快的物理映射。 交付方式的智能化: 为了延长专利期和提升合规性,药企正加速将传统剂型转化为智能交付设备。AI 驱动的数字医疗趋势,正让 WST 的产品从“耗材”变成“精密系统”。 策略思考 对于宏观投资者而言,WST 的表现是一个明确的信号:AI 对医药行业的改变已不再停留于研发端的叙事,而是开始转化为供应链上的实打实订单。 当市场还在争论 AI 算力时,医药供应链中的“核心收费站”已经开始享受 AI 带来的商业化加速红利。只要新药上市的节奏持续被技术手段压缩,这类掌握精密交付关卡的公司,将持续展现出超越周期的确定性。 免责声明:本人观点十分主观,非投资建议dyor
顯示更多
Onto Innovation最近入股 Rigaku Holdings 27% 股权,这是一次非常明确的战略转向:从“表面检测”走向“3D结构检测”,本质是在卡位先进封装时代的工艺控制入口。 Onto的业务核心是半导体制造中的process control,也就是检测(inspection)、计量(metrology)、封装光刻和软件系统。它决定良率,和klac一样,是典型的“复杂性收费者”。随着工艺从2D走向3D,这类公司的重要性正在系统性提升。 过去,检测主要依赖光学和电子束,解决的是“看得见”的问题。但在HBM、CoWoS、chiplet和混合键合等结构下,缺陷越来越隐藏在内部,传统方法开始失效。X-ray成为必需工具,这正是Onto入股Rigaku的核心逻辑——补齐内部检测能力,从而覆盖“表面+内部”的完整检测链条。 从市场结构看,Onto未来真正的机会不在大盘,而在结构性细分。 先进封装检测的增速高于行业平均,而涉及3D结构(如X-ray、混合键合检测)的细分领域可能更高。公司当前业务重心已经明显向先进封装倾斜,这使其增长弹性显著高于行业平均。 竞争格局上,行业由 KLA Corporation 主导,市占率超过一半,是标准制定者;Applied Materials 和 ASML 等大型设备商具备跨界能力,可以通过整线方案压制单点供应商;而Camtek、Nova等公司则在细分领域与Onto直接竞争。Onto本身处于中间位置:产品线不够全面,但在先进封装环节具备一定深度。 其优势在于提前卡位先进封装,产品结构向高增长区域集中,同时具备一定技术门槛和盈利能力;但劣势也很清晰,包括客户绑定较弱、系统能力不完整,以及在部分高端检测能力上仍落后于龙头。整体来看,护城河处于中等水平,尚未形成不可替代性。 决定公司未来地位的关键变量是混合键合。 随着互连从bump走向直接键合,对overlay精度和界面缺陷控制的要求大幅提升,检测和计量的重要性显著上升。Onto在overlay和先进封装检测上已有基础,并通过X-ray补齐能力,因此可以覆盖混合键合检测链的大部分环节。该技术有望在未来3–5年持续推动其相关业务高于行业增速。 Onto的投资逻辑并不完全跟随半导体周期,而在于是否能够从先进封装中的“参与者”,升级为3D结构检测中的“关键节点”。混合键合决定其能否获得稳定超额增长。如果能够在X-ray和3D检测上建立能力闭环,其护城河有望明显加宽;反之,则仍将处于被KLA压制、被大厂边缘化的中间位置。 本质上,这家公司正在从一个设备供应商,向“复杂性控制入口”转型。能否完成这一转型,决定了它未来5年的上限。 免责声明:本人持有文章提及股票,观点十分主观,非投资建议dyor
顯示更多
分析:scaling law的范式转移:scale-up、scale-out和scale-lean 过去两年,随着ai的发展,质疑scaling law的声音越来越多,但其实scaling law不但一直都在,而且还在不断增强。 如果我们稍微回顾一下历史,从 GPT-3 到 GPT-4,本质上都是在把模型做大——参数更多、数据更多、算力更强。这就是典型的 Scale Up。 但从 GPT-4 开始,大家开始越来越多地讨论“推理”。不是简单的生成,而是多步推理、链式思考、更复杂的问题拆解。 模型能力的提升,不再只是来自参数规模,而是来自推理过程本身的优化。这其实是一个很微妙但关键的变化:行业开始意识到,“怎么用模型”,和“模型有多大”,同样重要。 直到最近,像 OpenCLaw、AutoResearch 代表的agent生态开始大火,本质上已经不是在讨论模型本身了,而是在讨论一个系统。模型只是其中一部分,更重要的是任务如何拆解、如何调用工具、如何在多个步骤中反复执行和修正。 这时候,能力的提升,已经不再主要依赖模型本身,而是依赖结构。通过多次调用、流程编排、工具接入,把原本单点能力扩展成一个可以执行复杂任务的系统。这一阶段,其实就是 Scale Out。 但从推理和agetn生态开始跑起来之后,一个更现实的问题马上出现了:成本。 推理一旦复杂化,Agent一旦进入多步执行,调用次数是指数级增长的。推理成本迅速上升,延迟变得不可接受,底层的内存和带宽开始成为瓶颈。你会发现,问题已经从“能力不够”,变成了“跑不起”。 于是最近这段时间,越来越多的论文和工程实践,都开始研究如何降本增效。 比如 DeepSeek 之前的Engram,Google 最近的 TurboQuant,本质上是在做更极致的存储优化、压缩和效率提升 -- 在不显著增加算力的情况下,让系统变得更强、更便宜、更快。 我们可以把它叫做 Scale Lean。 把这三条路径综合起来,可能更能帮助我们把握行业未来的发展。 最早是 Scale Up 占绝对主导,大家都在拼模型大小。然后是 Scale Out 开始出现,系统能力逐渐成为新的增长点。再到现在,Scale Lean 开始变得越来越重要,因为它直接决定这些系统运行成本。 这三者不是替代关系,而是叠加关系。 更重要的是,Scale Up、Scale Out、Scale Lean 三条路径本身就是一个正反馈系统,它们会互相放大彼此的效果,从而加速整个AI进化。 模型变强(Scale Up),会让Agent系统更少出错、步骤更短、整体能力更稳定,从而放大Scale Out的效果; 而一旦系统复杂度上来,调用次数暴增,成本问题就会被迅速放大,这又反过来逼着整个行业去做效率优化,也就是Scale Lean。 等到效率真的被做下来之后,事情又会发生变化——更低的成本、更高的吞吐,会让更复杂的Agent系统变得可行,同时也让模型可以被更频繁地调用、训练和迭代,进一步推动Scale Up。 于是这三者之间形成了一种很典型的正反馈:Up让Out更强,Out逼Lean进化,Lean又反过来加速Up和Out。 AI的发展不再是单一变量的线性推进,而是一个多变量耦合的加速系统,一旦三个方向同时往前,整体能力的提升就很容易从“渐进式”变成“跳跃式”。 基于以上的讨论,我们可以得出一个结论,ai能力的增长速度,不但没有放缓,还在加速。 scaling law不但没有装墙,反而驶上了快车道。
顯示更多
制造奇点正在逼近:AI + 3D打印将孕育出自我迭代的机器 过去几十年,制造业的进步一直是线性的。工厂更大,机器更精密,效率更高,但本质没有改变:人类设计机器,机器生产产品。现在,这个结构正在发生第一次根本性的改变。 AI和3D打印的结合,正在让制造系统本身成为可以被改进的对象。一旦制造系统能够递归改进自身,制造能力就不再是线性增长,而会转向指数增长。这就是所谓的“制造奇点”。 但这个奇点不会以突然爆发的形式出现,而是通过一系列早期信号逐步显现。我们现在,正处于这个过程的最早阶段。 制造第一次变成“信息问题” 传统制造有一个根本限制:数字设计无法直接变成物理世界。 设计必须经过工厂、模具、供应链,才能成为产品。每一次改进,都需要昂贵的生产准备和漫长的周期。 3D打印改变了这一点。 它第一次让制造变成了一个直接的数字过程: 设计 → 直接制造 没有模具,没有复杂准备,没有规模门槛。这意味着制造第一次成为“信息驱动”的过程,而不是“资本驱动”的过程。 这一步本身已经足够重要,但真正的突破来自AI。 AI让设计本身成为自动化过程。过去,设计速度受限于工程师数量。现在,设计速度受限于算力。 当设计速度和制造速度都变成计算问题时,制造能力就可以像计算能力一样增长。 递归自我改进:制造系统第一次可以改进自身 更深层的变化在于,3D打印机可以制造改进自身的结构。 打印机可以打印: 更稳定的结构件 更轻的支架 更精密的运动组件 当AI参与这个过程时,循环就变成: 设计 → 打印 → 测试 → 改进 → 再打印 → 再改进 这是一个闭环。 过去,系统改进依赖人类。现在,系统本身参与改进。 这是制造领域第一次出现真正意义上的递归自我改进。 类似的循环已经在计算领域发生: GPU训练AI → AI设计更好的GPU → 更好的GPU训练更强AI 制造领域正在进入同样的轨道。 就像vibe coding一样,vibe making将让制造第一次成为普通人的表达工具 过去,要制造一个产品,你必须掌握CAD建模、结构设计和制造知识。 现在,一个想法就足够: 描述结构 → 自动生成模型 → 直接打印 这被称为“vibe making”。 它和vibe coding的本质是一样的,只不过对象从软件变成了物理世界。 这意味着制造能力第一次从工程师扩展到普通人,人类第一次迎来制造平权 这也是为什么制造的核心正在从传统制造公司转向三类公司: 第一类,是提供计算能力的公司。因为计算决定设计速度。 第二类,是提供设计软件和设计平台的公司。因为设计成为核心环节。 第三类,是提供新一代打印系统的公司。因为它们是执行层。 制造正在变成一个计算问题,而不是一个资本问题。 当制造系统可以改进自身,改进速度就不再受限于人类。 制造成本将持续下降。 制造复杂度将持续上升。 创新速度将持续加快。 最终结果是,制造能力将像计算能力一样增长。 我们今天看到的不是爆发,而是爆发前的结构重组。 就像2005年的GPU行业,看起来平静,但已经无法逆转。 制造业正在进入同样的轨道。
顯示更多