註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

檢索結果 半导体
半导体 貼吧
一個關鍵字就是一個貼吧,路徑全站唯一。
建立貼吧
用戶
未找到
包含 半导体 的搜尋結果
半导体行业目前占标普500指数的 16.7%,占纳斯达克指数的 29.5%。
半导体产业链之上,数字孪生之前:良率提升的隐形冠军分析 如果把半导体制造当成一个系统来看,会发现一个被长期忽视的位置:在产业链之上、在数字孪生真正落地之前,存在一层尚未被完全定义的跨企业,全流程的“认知层”。PDF Solutions的价值,就来自这里。 它处理的不是单点数据,而是贯穿设计、工艺、设备、测试的因果链:某个设计结构,在某个工艺步骤、某台设备上形成特定缺陷,最终映射为电性失效。单个fab或者检测机构可以拥有某些环节的全部原始数据,但很难把这些数据稳定地连接成可复用的因果模型,这就是PDFS切入的本质。 为什么EDA、fab、设备厂没有把这件事自己做完?不是做不到,而是没有动力做到那一步。 设计端如Synopsys、Cadence Design Systems只能做到前馈优化,缺乏制造后的反馈闭环; fab如TSMC、Intel数据最全,但系统割裂、组织分散,跨流程整合成本极高; 设备厂如KLA Corporation、Applied Materials掌握检测和控制,但视角局限在单工序。 每一层都在优化局部,跨边界问题无人承接,于是在产业链之上,自然出现了一层“解释系统”的空白,这正是PDFS所在的位置。 产业链使用PDFS,是因为数据之间的断层——设计看设计,工艺看工艺,设备看缺陷,但没有统一机制把这些信息串成一条可解释的因果链。PDFS的作用,本质上是提供一种跨环节的“统一语言”,把原本无法关联的数据转化为可以用于决策的结构化认知。 PDFS复用的是抽象层:缺陷分类、特征工程、分析路径以及“模式—原因”的映射关系。这是一种“认知复利”,而不是互联网式的强网络效应。客户越多,模型越好。 PDFS为什么能做到今天的位置? 因为他们从最苦的活开始。 他们最早不是平台公司,而是以工程服务切入,解决最棘手的良率问题。良率问题天然跨越设计、制造和检测,它从一开始就被迫打通全链条。随着项目积累,相似问题反复出现,分析方法和数据结构被不断沉淀,逐步从“人驱动”转向“方法驱动”,最终产品化为平台(Exensio)。所谓“覆盖全产业链”,并不是自上而下设计的结果,而是问题驱动下的自然扩张。 公司目前护城河仍然不足以自动演化为行业标准。决定其上限的三个条件,目前只有一个在加速:AI对数据结构的依赖。随着AI进入制造环节,企业更倾向于在既有数据框架上建模,而不是重建体系,这在强化PDFS的位置。但数据模型标准化仍然缓慢,跨公司协同也还停留在早期,飞轮尚未闭环。 与KLA Corporation相比,这种差异更清晰。KLA控制的是“看见什么”,数据来自设备,绑定物理世界,护城河刚性且直接;PDFS控制的是“如何理解”,属于认知层,依赖数据结构和经验积累。前者不可绕开,后者存在替代路径。因此当前阶段,KLA更强、更确定;PDFS上限更高,但路径未锁定。 用nvda老黄常挂在嘴边的词来看PDFs的end game,就是数字孪生。 数字孪生需要实时数据、因果模型和控制能力三者闭环。PDFS已经覆盖了最难的一块——因果建模和跨链条数据结构,因此它位于一个非常微妙的位置:既在产业链之上,又在数字孪生之前。它负责“理解世界”,以便让其他人“改变世界”。 从发展路径看,PDFS下一步很可能向三条主线收敛:标准化、AI化和嵌入化。标准化意味着把自身的数据结构变成行业默认语言;AI化意味着让模型能力依赖其数据体系;嵌入化则意味着从“分析建议”进入“生产决策”。如果这三点成立,它才有可能跨过那条界线,从认知层走向真正的系统层。 因此,对PDFS最准确的判断是:它站在一个特殊的位置——半导体产业链之上,数字孪生之前。 如果这一层最终被标准化,它可能成为基础设施;如果没有,它仍然只是高价值工具。 免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议,投资风险巨大,入场需极度谨慎
顯示更多
0
12
56
14
轉發到社區
半导体封装的“隐形中枢”:inline检测与OSAT的再定价 半导体产业正在经历一次重心转移:性能提升不再只依赖晶体管缩小,而是越来越依赖封装。2.5D、3D、HBM、chiplet,本质上都在把“系统能力”搬到封装环节。这也直接抬高了OSAT(外包封装与测试)的战略地位。 封装重要性的提升,带来了inline检测的快速增长。 OSAT(Outsourced Semiconductor Assembly and Test)负责两件事: 把裸die封装成可用芯片(封装) 验证芯片是否可用(测试) 过去这是一个低技术、低毛利的环节。但在AI时代,情况变了: 多die集成(chiplet) HBM堆叠 nm级对准要求(hybrid bonding) 封装正在变成: 性能瓶颈 + 良率瓶颈 + 成本瓶颈 inline是一种生产方式:所有工序连续完成,并在生产过程中实时检测与反馈(闭环) 对应另外一个环节是offline:做完再测(开环) 先进封装中的inline检测主要分三类: 1)光学检测(主力) bump高度 overlay(对准) 表面缺陷 特点:速度快,可全量inline。 2)X-ray检测 焊点空洞 TSV缺陷 内部结构问题 特点:能看内部,但速度慢,多用于抽检。 3)电性测试 功能验证 性能分档 更接近最终测试,不属于核心inline控制体系。 inline检测的目标不是“最精确”,而是在不降低产线效率的前提下,实现足够精确的实时反馈 核心矛盾:精度 ↑ → 速度 ↓;速度 ↑ → 精度 ↓ 先进设备的价值,就是在这个矛盾中找到最优解。 inline检测的壁垒来自多维叠加: 1)物理极限 nm级对准 μm级结构 工业环境下接近科研精度 2)速度 vs 精度的工程平衡 高throughput + 高精度同时实现 3)算法与数据 缺陷识别、pattern分析 强依赖历史数据与持续训练 4)工艺耦合 测量 → 调整工艺 → 再测 形成闭环系统 5)客户验证 TSMC / Samsung Electronics / Intel 验证周期长(1–3年) 一旦导入,很难替换 所以门槛极高。inline设备不是工具,而是嵌入客户制造系统的一部分。因此这个市场高度集中: 系统级控制 KLA Corporation Applied Materials → 控制数据与闭环 关键测量节点(alpha来源) Camtek Ltd. Onto Innovation Nova Ltd. → 控制关键测量维度 三家核心玩家对比(Onto / Nova / Camtek) 这三家公司虽然同在inline赛道,但本质上卡的是不同位置。 一句话结论 Onto = 广度(平台) Nova = 深度(前道工艺) Camtek = 弹性(先进封装/HBM) 1️⃣ Onto Innovation 定位: 前道 + 封装双覆盖 optical metrology + inspection + litho 优势: 产品线最广 客户最分散 抗周期能力强 劣势: 单点技术不如Nova深 封装不如Camtek极致 2️⃣ Nova Ltd. 定位:前道metrology核心玩家 优势: 技术深度最强 工艺绑定最深 数据壁垒最强 劣势: 封装参与较少 弹性不如Camtek 3️⃣ Camtek Ltd. 定位: 先进封装(HBM / 3D) 优势: 聚焦3D检测 HBM需求直接驱动 使用频率极高 劣势: 产品线较窄 对周期敏感 竞争关系本质 KLA = 控制系统 Onto = 广覆盖 Nova = 深度测量 Camtek = 封装核心检测 这不是单一赢家市场,而是: 每个关键测量维度一个龙头 封装是制造能力,检测是控制能力。区别在于: 封装 → 可扩产、可竞争 检测 → 嵌入流程、难替代 inline检测具备三个核心特征: 高频使用(每一步都测) 强绑定(工艺耦合) 决定良率(直接影响利润) 在这个体系中:谁打通从设备到数据的全节点,掌握“反馈权”,谁就掌握利润分配权。 免责声明:本人持有文中提及的标的,观点必然偏颇,非投资建议dyor
顯示更多
半导体芯片制造商 $MRVL 以 32.5 亿美元收购光子互连技术先驱 Celestial AI,交易含 10 亿现金及价值 22.5 亿的普通股,预计 2026 年 Q1 完成. Celestial AI 技术能效比英伟达倡导的铜缆传输速度快2倍. 纳秒级延迟、出色热稳定性,能在数千瓦级 XPU 的极端热环境运行.首款光子芯片带宽是英伟达1.6T 端口容量的 10 倍. 不过现有 $MRVL 业绩增长速度很拉垮. 对这个股票唯一的印象,貌似是去年问gpt未来十年的英伟达可能是哪一家,其中有它.
顯示更多
0
15
71
9
轉發到社區
🔴半导体股票几乎从未如此超买:费城半导体指数(SOX),目前交易价格比其200日移动平均线高出+64%,这是自2000年3月以来的最高读数。当时,它在200日移动平均线上方达到+110%的峰值,然后崩盘。此外,SOX的周RSI已飙升至86,与2000年互联网泡沫峰值相匹配。除了2000年,这一价格延伸和动量组合,在该指数历史上从未发生过。上次发生这种情况后,在接下来的2年内崩盘-80%。这次不同吗?
顯示更多
当前半导体公司的总市值已经占到了美股总市值的13%,这个比例是四年前的4倍。 投资者们正以创纪录的速度把真金白银砸进半导体ETF。过去8个月里,美国半导体ETF有7个月是净流入,创下近两年来最强吸金纪录。 当然大空头 Mi­c­h­a­el Bu­r­ry 依然在大举做空。
顯示更多
🔥半导体不可替代的金属材料相关龙头企业 1. 溅射靶材 江丰电子:高端半导体溅射靶材全球龙头 有研新材:稀土及铜钴靶材国家队龙头 安泰科技:钨钼高纯靶材国内龙头 贵研铂业:铂族金属靶材国内龙头 2. 钽铌材料 东方钽业:钽粉与钽靶材国内绝对龙头 3. 锗材料 云南锗业:锗单晶及红外/光通信锗衬底龙头 驰宏锌锗:锗资源及材料一体化龙头 4. 镓/铟材料 有研新材 / 驰宏锌锗 / 中金岭南:高纯镓材料主要供应商 锡业股份 / 株冶集团:铟材料龙头 5. 钼材料 金钼股份:高纯钼及钼靶材龙头 洛阳钼业:全球钼资源+材料一体化龙头 6. 钨材料 厦门钨业:钨深加工及硬质合金材料龙头 中钨高新:高端钨基硬质合金材料龙头 7. 铜基高端材料 博威合金:半导体引线框架铜合金龙头 楚江新材:高纯无氧铜材料龙头 金田股份:高导热无氧铜散热材料龙头 8. 铂族/稀贵金属 贵研铂业:铂、钯等半导体用稀贵金属材料龙头 9. 锆/铪材料 西部材料:核级与电子级锆铪材料龙头 东方锆业:电子级氧化锆材料龙头 10. 锑材料 湖南黄金 / 华钰矿业:高纯锑材料主要供应商 11. 碳化硅(含金属掺杂工艺) 天岳先进:碳化硅衬底材料龙头
顯示更多
最近半导体涨疯了,英特尔、美光科技、闪迪翻倍了。 整个美股半导体指数从年初涨了接近50%,我又开始反思自己的交易系统了。 真是应了那句话:人真的很难赚到认知以外的钱。 我过去只做左侧交易,左侧交易能给到足够多的安全边际。价格便宜,估值有保护,哪怕短期继续跌,在我的心里也能站得住。 我觉得左侧交易这种风格作为偏好是没问题的,问题是我把它用成了唯一的交易系统,导致我不买半导体,不买CPU,不买内存,也不买黄金,不买Tesla。 1️⃣ 左侧交易会让人产生一种洁癖 我不买特斯拉,因为 PE 太高,严重偏离基本面价值,动辄 300 到 400 倍的PE,怎么看都离谱。 我不买黄金,因为黄金本身只是价值存储,而不带来任何价值增量。并且黄金 ETF 在战争等极端情况下不一定能兑现,实体黄金卖出也有折价和渠道问题。 我不买CPU、内存,是在没经过仔细的了解和验证前就凭借着专业知识下意识觉得CPU和内存的稀缺是一个伪命题。 这些判断单独看,都有道理。 放在一起,就会形成一个超级大Bug,让我错失很多机会。不仅仅是赚钱的机会,也同时是在投资领域开阔视野和精进的机会。我会把所有看不懂的东西,都解释成不值得买。 2️⃣ 高 PE 的标的不应该直接被否决 高 PE 只能说明一件事:市场对未来有很高期待。 这个期待可能是泡沫,也可能是真的值这个价。 高估值不是免死金牌,低估值也不是护身符。 很多便宜资产会一直便宜,因为它本来就是坏生意。 很多贵资产会继续贵,因为它的增长、叙事和资金流还在继续扩散。 投资最难的地方就在这里。 不是找到便宜的标的,而是是搞清楚便宜为什么便宜,贵为什么贵。 我以前不喜欢右侧交易,因为它看起来没有留够安全边际。 但我现在觉得,这个理解真的太粗糙了。 左侧交易的安全边际来自价格,但右侧交易的安全边际来自市场确认。 看到涨了就买,那叫追高;但趋势确认之后,重新评估赔率,设置小仓位和退出条件,这才是右侧交易。 3️⃣ 打算给自己一个新规则 人一切逻辑和推论的起点都是自身的局限和偏见。 我真正要调整的是一种心理惯性:我会把自己不擅长的资产,提前打成低质量资产。 黄金不增值,所以我排斥。 特斯拉 PE 太高,所以我排斥。 半导体涨太多,所以我排斥。 这些都是我的偏见,本质上是一种认知防御措施。 为了防止自己把偏见包装成原则,以后所有我天然讨厌,但市场价格持续走高的资产,都放进一个反偏见观察池,开一个很小的观察仓。 持续观察,然后问自己以下两个问题: -它为什么还在涨? -我的反对理由有没有被证伪? 左侧交易依然是我的主系统,但右侧交易可以成为一个旁路分支。
顯示更多
昨天半导体芯片存储有些分歧 下午回落 这是非常正常的,假期里AI消息的发酵导致散户情绪过热,部分机构下午开始在部分杂牌股票上兑现短线利润 但不影响AI➕作为本轮牛市主线的地位,只是因为就是主线,它也是要休息要防守回撤的 这个时候可能会有一些其他板块出来发育 我认为锂电的存储叙事会是比较强悍的替补线 昨天AI硬件那么抢资金,它们都没有出现资金出货的迹象,还是非常强悍的 特别是锂电大票几乎没有回撤甚至还上行 关于锂电主线的讨论,怎么抓锂电矿产,正负极,隔膜的主线,订阅者再看看我们上期(讨论了锂电主线的延续)和上上期(明确讨论了锂电主线的延续及其模式)订阅专区里的华尔街观察周报 我们说的非常明确
顯示更多
AI半导体终局推演2026(I) 当新token经济学范式从GPU算力转移到HBM 本文从从GPU架构进化路线本质出发,解释这个市场长久以来担心的问题: 每个GPU的HBM内存需求为什么一定会是指数增长,为什么HBM需求指数增长不会停滞? 并推导token经济学在当前架构下第一性原理:token吞吐 = HBM size X HBM BW带宽 同时讨论了,为什么GPU的天花板被HBM的两个发展维度所决定 HBM周期性这个话题争议一直很大,乐观派认为AI带来的需求比以前要大的多,但市场主流仍然认为前几次上升周期也有需求每年20%+增长,这次又有什么不一样呢?AI不影响HBM和传统DRAM一样有commodity属性,一旦在需求顶峰扩产遇上需求下行又会重蹈覆辙。 我们可以从算力芯片架构视角,从第一性原理出发,来拆解和推演一下这个问题:为什么这次真的不一样 ------------------------------- 历史:CPU算力时代 很久以来,我们都处在CPU主导算力的时代,CPU的最高级KPI就是performance,跑的更快,所以每一代的CPU都用各种方法来提高跑分,最开始是频率上升,后来是架构演进superscaler等等 这个时候为什么DDR不需要很快的技术进步速度?比如DDR3到DDR5竟然经历了15年之久 因为这个时期的DDR的角色是纯粹的辅助,而且辅助功能极弱,以业界经验,DDR的速度即便是提高一倍,CPU的performance一般只能提高不到20%这个量级 为什么DDR带宽速度提高了用处不大?两个原因 1. CPU设计了各种架构去隐藏 DDR延迟,比如superscaler,加大发射宽度,用海量的ROB和register renaming来提高并行度隐藏延迟,一级缓存cache,二级缓存cache,削弱了DDR的带宽速度需求 2. CPU workload对DDR带宽要求并不高,大部分日常负载比如打开网页,DDR带宽是严重过剩的,甚至云端负载 也就是说,在CPU时代,DDR的带宽速度是不太有所谓的,DDR4和DDR5除了少数游戏就没啥差别,甚至JEDEC标准也进步缓慢。 另外,绝大部分app需要一直停留在DDR上的部分并不多,需要的时候从硬盘上调度到DDR即可,app的size增长没那么快,导致对DDR的容量需求也较为缓慢。 所以最近十年来,平均每台电脑上的DDR容量大概从7~8GB变成了23GB,十年只增长了3倍。 而这部分升级缓慢直接影响了营收,size容量计价是赚钱的主要方式,速度的提高只是技术升级,提高size的单价,这两个的升级需求都不大,需求主要是随着电脑/手机数量增长而增长 所以DRAM在带宽速度和容量这两个维度上,一直是都是芯片产业锦上添花性质的附属品,DDR升级带来的边际效用是很低的,跟CPU时代的最高KPI几乎没什么直接联系 -------------------------------------------- 而到了genAI 大模型为主导的新时代,计算范式转移让最高级KPI起了根本变化 GPU发展到AI推理的时代,不再像CPU那样只看跑分,最高级的KPI不再是算力TOPS/FLOPS,而是token的成本,特别是单位成本/单位电力下的overall token throuput 其次是token吞吐速度,因为在agent时代,很多任务变成了串行,token吞吐速度成了用户体验的重要瓶颈。 这也是为什么老黄发明AI工厂概念的原因:最低成本的输出最多token,同时尽量提高token吞吐速度 AI训练时代,老黄的经济学是TCO(total cost ownership),买的GPU越多,省的越多 而老黄在推理时代的token经济学是: AI推理的毛利润很可观,所以逻辑已经转换成:Nvidia GPU是这个世界上让token单价最便宜的GPU,买的GPU越多,赚的越多 最高的KPI变成了Pareto frontier曲线,在提高token 吞吐throughput和提高token速度两个维度上尽量优化 (见图一) NVIDIA 的 token factory 代际进步,其实是在把整条 Pareto frontier 往右上推,这就是是AI推理这个时代最重要的KPI ---------------------------------- 接下来是本文最重要的逻辑链,如何从token吞吐量指数型增长的本质出发,推导出天花板瓶颈在HBM size和HBM 带宽的指数型增长 单卡GPU推理单线程batch size = 1的时代,token吞吐只有一个维度,就是HBM的带宽速度,带宽速度越高,token吞吐越大 但进入NVL72的年代,推理不再是单卡GPU时代,而是72个GPU + 36个CPU整个系统级别的token工厂,把HBM带宽和算力用满,获得极致的token吞吐量 Token 吞吐throughput的增长,依赖两个东西:同时批处理的请求数 X 每个user请求的平均token速度 也就是batch size X per user token 速度 以Rubin NVL72为例,在平均token速度是100 token/s的情况下,同时批处理1920个请求,得到token吞吐量是19.2万token/s 一个Rubin NVL72大概是120KW(0.12MW)的功率,所以得到单位MW能处理1.6M token/s (见图一) 所以,我们需要想方设法提高这两个参数:批处理数量batch size和per user token的平均速度,这两者相乘就是我们的最高KPI,也就是token的吞吐量 ------- 第一个参数:batch size的增长,瓶颈在HBM size 批处理量里的每一个请求req,都会自带kv cache,这部分kv cache是需要存在HBM里的,大小大概在几个GB到数十GB不等 因为hot kv cache是随时需要高频高速读取,所以必须放在HBM里,比如一个大模型的层数是80层,那么每一个token的生成阶段,都需要读取80次HBM里的kv cache 随着批处理数量batch size的增长,会带来hot kv cache的线性增长 又因为这个批处理量的所有请求的hot kv cache,都要放在HBM上,这也就带来了HBM size必须要随着批处理量batch size线性增长 就像是机场接驳车,登机口尽量快的接旅客到飞机,HBM size小了,相当于接驳车size小了,就得多接一趟 结论是:批处理量的数量batch size,瓶颈依赖于HBM size的增长 --------- 第二个参数:每个user请求的平均token速度,瓶颈在HBM带宽 大模型decode阶段的速度,瓶颈取决于HBM的带宽速度,因为每生成一个 token,都要把激活的权重和kv cache 读很多遍 LPU的出现,在batch不那么大的情况下,把激活权重这个部分搬到了SRAM上,但是每生成一个 token仍然要从HBM读很多次KV cache。HBM带宽越高,生成每一个token的速度也就越快,基本上是线性对应的 就像是机场接驳车,登机口尽量快的接旅客到飞机,hbm本身带宽速度就像是接驳车的车门有多宽,门越宽,旅客上接驳车越快 GPU的其他配置,都是在适配batch的增长以及要让token compute的速度配平HBM的增长,甚至会用多余的算力来获得部分的带宽(比如部分带宽压缩技术) —----- 在那个接驳车的比喻例子里 接驳车的车厢大小 = HBM Size(容量): 决定了一次能装下多少名旅客(也就是能同时装下多少个请求的 KV Cache)。车厢越大,一次能拉载的旅客(Batch Size)就越多。如果车太小,想拉100个人就得分两趟,系统整体的吞吐量就上不去。 接驳车的车门宽度 = HBM Bandwidth(带宽): 决定了旅客上下车的速度。门越宽,大家呼啦啦一下全上去了(Decode/生成Token的速度极快)。如果门很窄,哪怕车厢巨大能装200人,大家也得排着队一个一个挤上去,全耗在上下车的时间里了。 旅客的吞吐量 = 接驳车车厢容量 x 接驳车旅客上车速度(车门宽度) —--------------------------- 至此,我们从逻辑上推演出了token经济学的硬件需求第一性原理: Token throughput = HBM size X HBM Bandwidth AI推理这个时代的最高KPI,实际上是高度依赖于HBM的两个维度的进步的 如果要维持token throuput每一代两倍的增长,实际上意味着,每一代的单GPU上,HBM size X HBM BW带宽之积要增长两倍! 这也是历史上第一次,HBM内存的size可以影响最高的KPI token throughput! 要验证这个理论,可以把Nvidia从A100到Rubin Ultra这几代的token 吞吐throughput,和HBM size X HBM BW 放在同一个图里比较 (见图二) 可以发现,这两个曲线的走势在对数轴上惊人的一致 HBM size x HBM带宽增长的甚至要比token吞吐量更快,毕竟HBM决定的是天花板,实际上这个天花板增长的利用率utilization是很难达到100%的,也就是说,HBM size x HBM 带宽就算增长1000倍,其他算力和架构的配合下,很难把这1000倍的天花板潜力全部榨干 这条曲线不是巧合,而是系统最优化的必然解 throughput = batch × Bandwidth,这就是token factory 经济学最绕不开的第一性原理 —-------- 软件的影响呢?软件的优化会不会降低带宽的需求?降低HBM的需求? 这跟硬件是独立两个维度的,这好像在问,如果CPU上的软件优化了之后跑的更快,是不是CPU就十年不用发展了?反正软件跑的更快了嘛 这样的话,CPU厂还能赚得到钱吗?CPU想要存活下去,只有一条路可走,在标准benchmark,不考虑软件优化,每一代CPU必须要跑分更高,不然就卖不出去 GPU也是一样,软件优化如何,和自己的token吞吐量KPI每年都要大幅进步,是两回事 只要token的需求继续增长,对token throuput的追求就绝不会停止,那么对HBM size X HBM 带宽的追求也不会停止 如果HBM size和HBM 带宽发展慢了,老黄一定会亲自到御三家逼着他们技术升级,因为这就是老黄gpu的天花板,天花板要是钉死了不进步,老黄的GPU还能卖出去吗? 当然了,Nvidia需要绞尽脑汁去从异构计算的架构角度榨取HBM天花板之外的部分,比如LPU就是一个很好的尝试,把Pareto frontier从另一个角度改善了很多 (右半边高token速度的部分) —-------------------------------------- HBM内存已然告别了那个随波逐流的旧时代,在这条由指数级需求铺就的单行道上,以一种近乎宿命的方式走到了产业史诗的主舞台中央 推理范式第一性原理演化到这一步,只要老黄还要卖GPU,HBM就必须翻倍,而且必须代代翻倍。这是supply side的内生压力,与AI需求无关,与宏观周期无关,与hyperscaler的心情也无关 剩下的问题,只有一个: 当需求被物理锁定为指数增长的时候,供给侧的三个玩家,会不会还像过去三十年那样,亲手把自己再拖回一次周期的泥潭?
顯示更多
0
58
992
298
轉發到社區