半导体行业目前占标普500指数的 16.7%,占纳斯达克指数的 29.5%。
半导体产业链之上,数字孪生之前:良率提升的隐形冠军分析
如果把半导体制造当成一个系统来看,会发现一个被长期忽视的位置:在产业链之上、在数字孪生真正落地之前,存在一层尚未被完全定义的跨企业,全流程的“认知层”。PDF Solutions的价值,就来自这里。
它处理的不是单点数据,而是贯穿设计、工艺、设备、测试的因果链:某个设计结构,在某个工艺步骤、某台设备上形成特定缺陷,最终映射为电性失效。单个fab或者检测机构可以拥有某些环节的全部原始数据,但很难把这些数据稳定地连接成可复用的因果模型,这就是PDFS切入的本质。
为什么EDA、fab、设备厂没有把这件事自己做完?不是做不到,而是没有动力做到那一步。
设计端如Synopsys、Cadence Design Systems只能做到前馈优化,缺乏制造后的反馈闭环;
fab如TSMC、Intel数据最全,但系统割裂、组织分散,跨流程整合成本极高;
设备厂如KLA Corporation、Applied Materials掌握检测和控制,但视角局限在单工序。
每一层都在优化局部,跨边界问题无人承接,于是在产业链之上,自然出现了一层“解释系统”的空白,这正是PDFS所在的位置。
产业链使用PDFS,是因为数据之间的断层——设计看设计,工艺看工艺,设备看缺陷,但没有统一机制把这些信息串成一条可解释的因果链。PDFS的作用,本质上是提供一种跨环节的“统一语言”,把原本无法关联的数据转化为可以用于决策的结构化认知。
PDFS复用的是抽象层:缺陷分类、特征工程、分析路径以及“模式—原因”的映射关系。这是一种“认知复利”,而不是互联网式的强网络效应。客户越多,模型越好。
PDFS为什么能做到今天的位置? 因为他们从最苦的活开始。
他们最早不是平台公司,而是以工程服务切入,解决最棘手的良率问题。良率问题天然跨越设计、制造和检测,它从一开始就被迫打通全链条。随着项目积累,相似问题反复出现,分析方法和数据结构被不断沉淀,逐步从“人驱动”转向“方法驱动”,最终产品化为平台(Exensio)。所谓“覆盖全产业链”,并不是自上而下设计的结果,而是问题驱动下的自然扩张。
公司目前护城河仍然不足以自动演化为行业标准。决定其上限的三个条件,目前只有一个在加速:AI对数据结构的依赖。随着AI进入制造环节,企业更倾向于在既有数据框架上建模,而不是重建体系,这在强化PDFS的位置。但数据模型标准化仍然缓慢,跨公司协同也还停留在早期,飞轮尚未闭环。
与KLA Corporation相比,这种差异更清晰。KLA控制的是“看见什么”,数据来自设备,绑定物理世界,护城河刚性且直接;PDFS控制的是“如何理解”,属于认知层,依赖数据结构和经验积累。前者不可绕开,后者存在替代路径。因此当前阶段,KLA更强、更确定;PDFS上限更高,但路径未锁定。
用nvda老黄常挂在嘴边的词来看PDFs的end game,就是数字孪生。
数字孪生需要实时数据、因果模型和控制能力三者闭环。PDFS已经覆盖了最难的一块——因果建模和跨链条数据结构,因此它位于一个非常微妙的位置:既在产业链之上,又在数字孪生之前。它负责“理解世界”,以便让其他人“改变世界”。
从发展路径看,PDFS下一步很可能向三条主线收敛:标准化、AI化和嵌入化。标准化意味着把自身的数据结构变成行业默认语言;AI化意味着让模型能力依赖其数据体系;嵌入化则意味着从“分析建议”进入“生产决策”。如果这三点成立,它才有可能跨过那条界线,从认知层走向真正的系统层。
因此,对PDFS最准确的判断是:它站在一个特殊的位置——半导体产业链之上,数字孪生之前。
如果这一层最终被标准化,它可能成为基础设施;如果没有,它仍然只是高价值工具。
免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议,投资风险巨大,入场需极度谨慎
顯示更多
半导体封装的“隐形中枢”:inline检测与OSAT的再定价
半导体产业正在经历一次重心转移:性能提升不再只依赖晶体管缩小,而是越来越依赖封装。2.5D、3D、HBM、chiplet,本质上都在把“系统能力”搬到封装环节。这也直接抬高了OSAT(外包封装与测试)的战略地位。
封装重要性的提升,带来了inline检测的快速增长。
OSAT(Outsourced Semiconductor Assembly and Test)负责两件事:
把裸die封装成可用芯片(封装)
验证芯片是否可用(测试)
过去这是一个低技术、低毛利的环节。但在AI时代,情况变了:
多die集成(chiplet)
HBM堆叠
nm级对准要求(hybrid bonding)
封装正在变成:
性能瓶颈 + 良率瓶颈 + 成本瓶颈
inline是一种生产方式:所有工序连续完成,并在生产过程中实时检测与反馈(闭环)
对应另外一个环节是offline:做完再测(开环)
先进封装中的inline检测主要分三类:
1)光学检测(主力)
bump高度
overlay(对准)
表面缺陷
特点:速度快,可全量inline。
2)X-ray检测
焊点空洞
TSV缺陷
内部结构问题
特点:能看内部,但速度慢,多用于抽检。
3)电性测试
功能验证
性能分档
更接近最终测试,不属于核心inline控制体系。
inline检测的目标不是“最精确”,而是在不降低产线效率的前提下,实现足够精确的实时反馈
核心矛盾:精度 ↑ → 速度 ↓;速度 ↑ → 精度 ↓
先进设备的价值,就是在这个矛盾中找到最优解。
inline检测的壁垒来自多维叠加:
1)物理极限
nm级对准
μm级结构
工业环境下接近科研精度
2)速度 vs 精度的工程平衡
高throughput + 高精度同时实现
3)算法与数据
缺陷识别、pattern分析
强依赖历史数据与持续训练
4)工艺耦合
测量 → 调整工艺 → 再测
形成闭环系统
5)客户验证
TSMC / Samsung Electronics / Intel
验证周期长(1–3年)
一旦导入,很难替换
所以门槛极高。inline设备不是工具,而是嵌入客户制造系统的一部分。因此这个市场高度集中:
系统级控制
KLA Corporation
Applied Materials
→ 控制数据与闭环
关键测量节点(alpha来源)
Camtek Ltd.
Onto Innovation
Nova Ltd.
→ 控制关键测量维度
三家核心玩家对比(Onto / Nova / Camtek)
这三家公司虽然同在inline赛道,但本质上卡的是不同位置。
一句话结论
Onto = 广度(平台)
Nova = 深度(前道工艺)
Camtek = 弹性(先进封装/HBM)
1️⃣ Onto Innovation
定位:
前道 + 封装双覆盖
optical metrology + inspection + litho
优势:
产品线最广
客户最分散
抗周期能力强
劣势:
单点技术不如Nova深
封装不如Camtek极致
2️⃣ Nova Ltd.
定位:前道metrology核心玩家
优势:
技术深度最强
工艺绑定最深
数据壁垒最强
劣势:
封装参与较少
弹性不如Camtek
3️⃣ Camtek Ltd.
定位:
先进封装(HBM / 3D)
优势:
聚焦3D检测
HBM需求直接驱动
使用频率极高
劣势:
产品线较窄
对周期敏感
竞争关系本质
KLA = 控制系统
Onto = 广覆盖
Nova = 深度测量
Camtek = 封装核心检测
这不是单一赢家市场,而是:
每个关键测量维度一个龙头
封装是制造能力,检测是控制能力。区别在于:
封装 → 可扩产、可竞争
检测 → 嵌入流程、难替代
inline检测具备三个核心特征:
高频使用(每一步都测)
强绑定(工艺耦合)
决定良率(直接影响利润)
在这个体系中:谁打通从设备到数据的全节点,掌握“反馈权”,谁就掌握利润分配权。
免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议dyor
顯示更多
半导体芯片制造商 $MRVL 以 32.5 亿美元收购光子互连技术先驱 Celestial AI,交易含 10 亿现金及价值 22.5 亿的普通股,预计 2026 年 Q1 完成.
Celestial AI 技术能效比英伟达倡导的铜缆传输速度快2倍. 纳秒级延迟、出色热稳定性,能在数千瓦级 XPU 的极端热环境运行.首款光子芯片带宽是英伟达1.6T 端口容量的 10 倍.
不过现有 $MRVL 业绩增长速度很拉垮.
对这个股票唯一的印象,貌似是去年问gpt未来十年的英伟达可能是哪一家,其中有它.
顯示更多
🔴半导体股票几乎从未如此超买:费城半导体指数(SOX),目前交易价格比其200日移动平均线高出+64%,这是自2000年3月以来的最高读数。当时,它在200日移动平均线上方达到+110%的峰值,然后崩盘。此外,SOX的周RSI已飙升至86,与2000年互联网泡沫峰值相匹配。除了2000年,这一价格延伸和动量组合,在该指数历史上从未发生过。上次发生这种情况后,在接下来的2年内崩盘-80%。这次不同吗?
顯示更多
当前半导体公司的总市值已经占到了美股总市值的13%,这个比例是四年前的4倍。
投资者们正以创纪录的速度把真金白银砸进半导体ETF。过去8个月里,美国半导体ETF有7个月是净流入,创下近两年来最强吸金纪录。
当然大空头 Michael Burry 依然在大举做空。
顯示更多
🔥半导体不可替代的金属材料相关龙头企业
1. 溅射靶材
江丰电子:高端半导体溅射靶材全球龙头
有研新材:稀土及铜钴靶材国家队龙头
安泰科技:钨钼高纯靶材国内龙头
贵研铂业:铂族金属靶材国内龙头
2. 钽铌材料
东方钽业:钽粉与钽靶材国内绝对龙头
3. 锗材料
云南锗业:锗单晶及红外/光通信锗衬底龙头
驰宏锌锗:锗资源及材料一体化龙头
4. 镓/铟材料
有研新材 / 驰宏锌锗 / 中金岭南:高纯镓材料主要供应商
锡业股份 / 株冶集团:铟材料龙头
5. 钼材料
金钼股份:高纯钼及钼靶材龙头
洛阳钼业:全球钼资源+材料一体化龙头
6. 钨材料
厦门钨业:钨深加工及硬质合金材料龙头
中钨高新:高端钨基硬质合金材料龙头
7. 铜基高端材料
博威合金:半导体引线框架铜合金龙头
楚江新材:高纯无氧铜材料龙头
金田股份:高导热无氧铜散热材料龙头
8. 铂族/稀贵金属
贵研铂业:铂、钯等半导体用稀贵金属材料龙头
9. 锆/铪材料
西部材料:核级与电子级锆铪材料龙头
东方锆业:电子级氧化锆材料龙头
10. 锑材料
湖南黄金 / 华钰矿业:高纯锑材料主要供应商
11. 碳化硅(含金属掺杂工艺)
天岳先进:碳化硅衬底材料龙头
顯示更多
最近半导体涨疯了,英特尔、美光科技、闪迪翻倍了。
整个美股半导体指数从年初涨了接近50%,我又开始反思自己的交易系统了。
真是应了那句话:人真的很难赚到认知以外的钱。
我过去只做左侧交易,左侧交易能给到足够多的安全边际。价格便宜,估值有保护,哪怕短期继续跌,在我的心里也能站得住。
我觉得左侧交易这种风格作为偏好是没问题的,问题是我把它用成了唯一的交易系统,导致我不买半导体,不买CPU,不买内存,也不买黄金,不买Tesla。
1️⃣ 左侧交易会让人产生一种洁癖
我不买特斯拉,因为 PE 太高,严重偏离基本面价值,动辄 300 到 400 倍的PE,怎么看都离谱。
我不买黄金,因为黄金本身只是价值存储,而不带来任何价值增量。并且黄金 ETF 在战争等极端情况下不一定能兑现,实体黄金卖出也有折价和渠道问题。
我不买CPU、内存,是在没经过仔细的了解和验证前就凭借着专业知识下意识觉得CPU和内存的稀缺是一个伪命题。
这些判断单独看,都有道理。
放在一起,就会形成一个超级大Bug,让我错失很多机会。不仅仅是赚钱的机会,也同时是在投资领域开阔视野和精进的机会。我会把所有看不懂的东西,都解释成不值得买。
2️⃣ 高 PE 的标的不应该直接被否决
高 PE 只能说明一件事:市场对未来有很高期待。
这个期待可能是泡沫,也可能是真的值这个价。
高估值不是免死金牌,低估值也不是护身符。
很多便宜资产会一直便宜,因为它本来就是坏生意。
很多贵资产会继续贵,因为它的增长、叙事和资金流还在继续扩散。
投资最难的地方就在这里。
不是找到便宜的标的,而是是搞清楚便宜为什么便宜,贵为什么贵。
我以前不喜欢右侧交易,因为它看起来没有留够安全边际。
但我现在觉得,这个理解真的太粗糙了。
左侧交易的安全边际来自价格,但右侧交易的安全边际来自市场确认。
看到涨了就买,那叫追高;但趋势确认之后,重新评估赔率,设置小仓位和退出条件,这才是右侧交易。
3️⃣ 打算给自己一个新规则
人一切逻辑和推论的起点都是自身的局限和偏见。
我真正要调整的是一种心理惯性:我会把自己不擅长的资产,提前打成低质量资产。
黄金不增值,所以我排斥。
特斯拉 PE 太高,所以我排斥。
半导体涨太多,所以我排斥。
这些都是我的偏见,本质上是一种认知防御措施。
为了防止自己把偏见包装成原则,以后所有我天然讨厌,但市场价格持续走高的资产,都放进一个反偏见观察池,开一个很小的观察仓。
持续观察,然后问自己以下两个问题:
-它为什么还在涨?
-我的反对理由有没有被证伪?
左侧交易依然是我的主系统,但右侧交易可以成为一个旁路分支。
顯示更多
昨天半导体芯片存储有些分歧
下午回落
这是非常正常的,假期里AI消息的发酵导致散户情绪过热,部分机构下午开始在部分杂牌股票上兑现短线利润
但不影响AI➕作为本轮牛市主线的地位,只是因为就是主线,它也是要休息要防守回撤的
这个时候可能会有一些其他板块出来发育
我认为锂电的存储叙事会是比较强悍的替补线
昨天AI硬件那么抢资金,它们都没有出现资金出货的迹象,还是非常强悍的
特别是锂电大票几乎没有回撤甚至还上行
关于锂电主线的讨论,怎么抓锂电矿产,正负极,隔膜的主线,订阅者再看看我们上期(讨论了锂电主线的延续)和上上期(明确讨论了锂电主线的延续及其模式)订阅专区里的华尔街观察周报
我们说的非常明确
顯示更多
AI半导体终局推演2026(I)
当新token经济学范式从GPU算力转移到HBM
本文从从GPU架构进化路线本质出发,解释这个市场长久以来担心的问题:
每个GPU的HBM内存需求为什么一定会是指数增长,为什么HBM需求指数增长不会停滞?
并推导token经济学在当前架构下第一性原理:token吞吐 = HBM size X HBM BW带宽
同时讨论了,为什么GPU的天花板被HBM的两个发展维度所决定
HBM周期性这个话题争议一直很大,乐观派认为AI带来的需求比以前要大的多,但市场主流仍然认为前几次上升周期也有需求每年20%+增长,这次又有什么不一样呢?AI不影响HBM和传统DRAM一样有commodity属性,一旦在需求顶峰扩产遇上需求下行又会重蹈覆辙。
我们可以从算力芯片架构视角,从第一性原理出发,来拆解和推演一下这个问题:为什么这次真的不一样
-------------------------------
历史:CPU算力时代
很久以来,我们都处在CPU主导算力的时代,CPU的最高级KPI就是performance,跑的更快,所以每一代的CPU都用各种方法来提高跑分,最开始是频率上升,后来是架构演进superscaler等等
这个时候为什么DDR不需要很快的技术进步速度?比如DDR3到DDR5竟然经历了15年之久
因为这个时期的DDR的角色是纯粹的辅助,而且辅助功能极弱,以业界经验,DDR的速度即便是提高一倍,CPU的performance一般只能提高不到20%这个量级
为什么DDR带宽速度提高了用处不大?两个原因
1. CPU设计了各种架构去隐藏 DDR延迟,比如superscaler,加大发射宽度,用海量的ROB和register renaming来提高并行度隐藏延迟,一级缓存cache,二级缓存cache,削弱了DDR的带宽速度需求
2. CPU workload对DDR带宽要求并不高,大部分日常负载比如打开网页,DDR带宽是严重过剩的,甚至云端负载
也就是说,在CPU时代,DDR的带宽速度是不太有所谓的,DDR4和DDR5除了少数游戏就没啥差别,甚至JEDEC标准也进步缓慢。
另外,绝大部分app需要一直停留在DDR上的部分并不多,需要的时候从硬盘上调度到DDR即可,app的size增长没那么快,导致对DDR的容量需求也较为缓慢。
所以最近十年来,平均每台电脑上的DDR容量大概从7~8GB变成了23GB,十年只增长了3倍。
而这部分升级缓慢直接影响了营收,size容量计价是赚钱的主要方式,速度的提高只是技术升级,提高size的单价,这两个的升级需求都不大,需求主要是随着电脑/手机数量增长而增长
所以DRAM在带宽速度和容量这两个维度上,一直是都是芯片产业锦上添花性质的附属品,DDR升级带来的边际效用是很低的,跟CPU时代的最高KPI几乎没什么直接联系
--------------------------------------------
而到了genAI 大模型为主导的新时代,计算范式转移让最高级KPI起了根本变化
GPU发展到AI推理的时代,不再像CPU那样只看跑分,最高级的KPI不再是算力TOPS/FLOPS,而是token的成本,特别是单位成本/单位电力下的overall token throuput
其次是token吞吐速度,因为在agent时代,很多任务变成了串行,token吞吐速度成了用户体验的重要瓶颈。
这也是为什么老黄发明AI工厂概念的原因:最低成本的输出最多token,同时尽量提高token吞吐速度
AI训练时代,老黄的经济学是TCO(total cost ownership),买的GPU越多,省的越多
而老黄在推理时代的token经济学是:
AI推理的毛利润很可观,所以逻辑已经转换成:Nvidia GPU是这个世界上让token单价最便宜的GPU,买的GPU越多,赚的越多
最高的KPI变成了Pareto frontier曲线,在提高token 吞吐throughput和提高token速度两个维度上尽量优化
(见图一)
NVIDIA 的 token factory 代际进步,其实是在把整条 Pareto frontier 往右上推,这就是是AI推理这个时代最重要的KPI
----------------------------------
接下来是本文最重要的逻辑链,如何从token吞吐量指数型增长的本质出发,推导出天花板瓶颈在HBM size和HBM 带宽的指数型增长
单卡GPU推理单线程batch size = 1的时代,token吞吐只有一个维度,就是HBM的带宽速度,带宽速度越高,token吞吐越大
但进入NVL72的年代,推理不再是单卡GPU时代,而是72个GPU + 36个CPU整个系统级别的token工厂,把HBM带宽和算力用满,获得极致的token吞吐量
Token 吞吐throughput的增长,依赖两个东西:同时批处理的请求数 X 每个user请求的平均token速度
也就是batch size X per user token 速度
以Rubin NVL72为例,在平均token速度是100 token/s的情况下,同时批处理1920个请求,得到token吞吐量是19.2万token/s 一个Rubin NVL72大概是120KW(0.12MW)的功率,所以得到单位MW能处理1.6M token/s
(见图一)
所以,我们需要想方设法提高这两个参数:批处理数量batch size和per user token的平均速度,这两者相乘就是我们的最高KPI,也就是token的吞吐量
-------
第一个参数:batch size的增长,瓶颈在HBM size
批处理量里的每一个请求req,都会自带kv cache,这部分kv cache是需要存在HBM里的,大小大概在几个GB到数十GB不等 因为hot kv cache是随时需要高频高速读取,所以必须放在HBM里,比如一个大模型的层数是80层,那么每一个token的生成阶段,都需要读取80次HBM里的kv cache
随着批处理数量batch size的增长,会带来hot kv cache的线性增长
又因为这个批处理量的所有请求的hot kv cache,都要放在HBM上,这也就带来了HBM size必须要随着批处理量batch size线性增长
就像是机场接驳车,登机口尽量快的接旅客到飞机,HBM size小了,相当于接驳车size小了,就得多接一趟
结论是:批处理量的数量batch size,瓶颈依赖于HBM size的增长
---------
第二个参数:每个user请求的平均token速度,瓶颈在HBM带宽
大模型decode阶段的速度,瓶颈取决于HBM的带宽速度,因为每生成一个 token,都要把激活的权重和kv cache 读很多遍
LPU的出现,在batch不那么大的情况下,把激活权重这个部分搬到了SRAM上,但是每生成一个 token仍然要从HBM读很多次KV cache。HBM带宽越高,生成每一个token的速度也就越快,基本上是线性对应的
就像是机场接驳车,登机口尽量快的接旅客到飞机,hbm本身带宽速度就像是接驳车的车门有多宽,门越宽,旅客上接驳车越快
GPU的其他配置,都是在适配batch的增长以及要让token compute的速度配平HBM的增长,甚至会用多余的算力来获得部分的带宽(比如部分带宽压缩技术)
—-----
在那个接驳车的比喻例子里
接驳车的车厢大小 = HBM Size(容量): 决定了一次能装下多少名旅客(也就是能同时装下多少个请求的 KV Cache)。车厢越大,一次能拉载的旅客(Batch Size)就越多。如果车太小,想拉100个人就得分两趟,系统整体的吞吐量就上不去。
接驳车的车门宽度 = HBM Bandwidth(带宽): 决定了旅客上下车的速度。门越宽,大家呼啦啦一下全上去了(Decode/生成Token的速度极快)。如果门很窄,哪怕车厢巨大能装200人,大家也得排着队一个一个挤上去,全耗在上下车的时间里了。
旅客的吞吐量 = 接驳车车厢容量 x 接驳车旅客上车速度(车门宽度)
—---------------------------
至此,我们从逻辑上推演出了token经济学的硬件需求第一性原理:
Token throughput = HBM size X HBM Bandwidth
AI推理这个时代的最高KPI,实际上是高度依赖于HBM的两个维度的进步的
如果要维持token throuput每一代两倍的增长,实际上意味着,每一代的单GPU上,HBM size X HBM BW带宽之积要增长两倍!
这也是历史上第一次,HBM内存的size可以影响最高的KPI token throughput!
要验证这个理论,可以把Nvidia从A100到Rubin Ultra这几代的token 吞吐throughput,和HBM size X HBM BW 放在同一个图里比较
(见图二)
可以发现,这两个曲线的走势在对数轴上惊人的一致
HBM size x HBM带宽增长的甚至要比token吞吐量更快,毕竟HBM决定的是天花板,实际上这个天花板增长的利用率utilization是很难达到100%的,也就是说,HBM size x HBM 带宽就算增长1000倍,其他算力和架构的配合下,很难把这1000倍的天花板潜力全部榨干
这条曲线不是巧合,而是系统最优化的必然解
throughput = batch × Bandwidth,这就是token factory 经济学最绕不开的第一性原理
—--------
软件的影响呢?软件的优化会不会降低带宽的需求?降低HBM的需求?
这跟硬件是独立两个维度的,这好像在问,如果CPU上的软件优化了之后跑的更快,是不是CPU就十年不用发展了?反正软件跑的更快了嘛
这样的话,CPU厂还能赚得到钱吗?CPU想要存活下去,只有一条路可走,在标准benchmark,不考虑软件优化,每一代CPU必须要跑分更高,不然就卖不出去
GPU也是一样,软件优化如何,和自己的token吞吐量KPI每年都要大幅进步,是两回事
只要token的需求继续增长,对token throuput的追求就绝不会停止,那么对HBM size X HBM 带宽的追求也不会停止
如果HBM size和HBM 带宽发展慢了,老黄一定会亲自到御三家逼着他们技术升级,因为这就是老黄gpu的天花板,天花板要是钉死了不进步,老黄的GPU还能卖出去吗?
当然了,Nvidia需要绞尽脑汁去从异构计算的架构角度榨取HBM天花板之外的部分,比如LPU就是一个很好的尝试,把Pareto frontier从另一个角度改善了很多 (右半边高token速度的部分)
—--------------------------------------
HBM内存已然告别了那个随波逐流的旧时代,在这条由指数级需求铺就的单行道上,以一种近乎宿命的方式走到了产业史诗的主舞台中央
推理范式第一性原理演化到这一步,只要老黄还要卖GPU,HBM就必须翻倍,而且必须代代翻倍。这是supply side的内生压力,与AI需求无关,与宏观周期无关,与hyperscaler的心情也无关
剩下的问题,只有一个:
当需求被物理锁定为指数增长的时候,供给侧的三个玩家,会不会还像过去三十年那样,亲手把自己再拖回一次周期的泥潭?
顯示更多