注册并分享邀请链接,可获得视频播放与邀请奖励。

搜索结果 AMD:推理界的全能选手,GPU
AMD:推理界的全能选手,GPU 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 AMD:推理界的全能选手,GPU 的推特
今天看到一份报告,讲到2030年,未来75%的AI计算需求将会来自推理,这里面将会催生出AI投资下半场的巨大机会,下面👇我们来简单聊一聊。🧐 过去两年,大家都在疯狂囤 GPU 训练模型,烧钱堆算力。但最近大家有没有发现,情况开始变了?尤其是小龙虾🦞出来以后,各类Agent可谓大爆发,Token需求指数级增长。一个崭新的推理时代正在到来,未来AI最大的叙事点是让AI应用走进全球几十亿用户手中,并真正使用起来! 这个转折点,我把它叫做从「训练时代」到「推理时代」的切换。而在这个新阶段,CPU 和定制芯片将是未来真正的主角。 👇咱们掰开揉碎了讲讲,为啥我开始盯上这些以前不起眼的家伙: 🎯 AI 现在有「脑子」了 以前的 AI 就是个工具,我问它答,无法去执行具体的工作。现在不一样了,Agentic AI来了,它能帮我订机票、改文档、写代码,甚至帮我规划整个工作流程。 这种活儿需要大量的逻辑判断和顺序编排。以前GPU是肌肉男,干体力活厉害;但现在这种执行活,CPU 才是指挥官,它擅长处理复杂的逻辑。AI 越聪明,越需要 CPU 来调度指挥。 🎯 大厂也得省钱啊 看财报,各大厂在AI领域的资本开支都十分庞大,其中七巨头除苹果之外,26年全年资本开支总额超过了6000亿美金。不要以为谷歌、Meta 这些巨头就不差钱。恰恰相反,他们也是把钱花在刀刃上。假如一直用英伟达的通用 GPU 来搞推理,电费和硬件成本会把他们吃掉。 所以大厂开始自己设计专用芯片ASIC,就像咱们切菜用菜刀、砍柴用斧头,专芯专用,效率高成本低。这是实打实的降本增效。 基于上述逻辑,我们筛了五个核心标的: • #AMD:推理界的全能选手,GPU# MI300/325 系列拥有业内领先的内存带宽(256GB HBM3E内存,带宽达6TB/s,参数上优于英伟达H200),能轻松处理超大规模LLM的实时推理,而且速度快。关键是它还是服务器 CPU 的老二,代理式 AI 需要强 CPU 时,AMD 两头吃。 • #ARM:底层架构之王,谷歌、亚马逊自研芯片基本都跑# ARM 架构,ARM Neoverse 平台已经成为 90% 以上自研 AI 服务器 CPU 的首选。所以大厂搞自研,ARM 相当于在家坐着收过路费。 • 博通(#AVGO):定制芯片的总工程师,它作为# Google TPU、Meta MTIA 和字节跳动的重要合作伙伴,博通在高速互联和封装技术上拥有绝对统治力,是云巨头降低推理成本的首选合作伙伴。大厂想省钱搞自研,离不开博通的技术。 • 迈威尔(#MRVL):深度参与亚马逊# AWS 和微软 Azure 的芯片研发,这俩巨头想摆脱英伟达依赖,必须依靠迈威尔。目前迈威尔的定制硅片业务正从“研发期”进入“爆发收获期”,未来的生意只会越做越大。 • 英特尔(#INTC):虽然最近比较难,但它是唯一有自家晶圆厂的设计商,还拥有全球稀缺的# IDM 2.0 代工能力。当推理导致全球 CPU 需求激增、供应链紧张时,Intel 内部的这种协同效应和本土制造优势将会逐渐凸显,而且它还是服务器 CPU 老大。 看完整份报告,我个人认为有几个大趋势将会成为必然: 首先是从以前的「暴力算力」到未来的「精细化运营」。现在来看,整个AI 投资逻辑正在转变,不再是谁芯片最强,而是谁的方案最省钱、最能落地。说明AI真正商业化全面落地场景下,能效比率才是关键。 其次是供应链博弈。各大云巨头都在搞自研芯片,未来 AI 硬件市场会从「英伟达一家独大」变成「群雄割据」。我认为这对整个产业链将是好事。 最后就是电力依然会成为长期瓶颈。虽然 CPU 和 ASIC 在优化效率,但整体算力规模爆炸,对电力的需求还是无限大。看芯片的同时,能源赛道也值得留意。 总结一句话,#AI# 下半场,别光盯着那块最贵的 GPU,那些负责指挥的CPU和帮大厂省钱的ASIC,可能藏着下一波机会。 目前上述提及的公司在 #MSX# 上面基本都有,炒美股,我选择用 #RWA# 美股代币化平台 #MSX,一同投资参与美股市场:# 早期美股投资粉丝和伙伴,可以私信我,填写表单后,可免费进入美股交流和探讨社群(目前每周仅限定10人,助理审核,可能需要一点时间,感恩🙏)!
显示更多
0
13
212
63
转发到社区
🔥 前AMD高管深度拆解:ASIC战局与芯片巨头的隐秘关系 ⠀ $NVDA 之外的世界,正在悄悄重组 👇 ⠀ 1️⃣ 为什么 $GOOGL TPU 需求暴增? ⠀ 市场迫切需要 $NVDA 以外的选择 ⠀ 推理端需求爆发,TCO成为新战场 ⠀ 前几代TPU主打训练,现在全面转向推理 ⠀ 2️⃣ 推理时代的新指标 ⠀ 不再只追求原始算力和最大功耗 ⠀ 转向每瓦性能和每美元性能 ⠀ 效率才是下一轮竞争的核心 ⠀ 3️⃣ $GOOGL TPU 背后谁在撑场? ⠀ 核心架构:$GOOGL 自研 ⠀ SerDes IP 等关键知识产权:来自 $AVGO ⠀ 两家深度绑定,不是简单的甲乙方关系 ⠀ 4️⃣ $MRVL 的下一张牌 ⠀ $GOOGL 将与 $MRVL 合作开发下一代内存处理单元 MPU ⠀ 最大瓶颈:ASIC与内存之间的数据传输速度 ⠀ 解法:把部分计算直接卸载到内存,减少吞吐瓶颈 ⠀ 5️⃣ $INTC 的逆袭机会 ⠀ $GOOGL TPU 第九版将采用 $INTC 的 EMIB 封装技术 ⠀ $META 计划2027年用 $INTC 开发自研ASIC ⠀ 这些都是代工订单,不直接影响 $AVGO 和 $MRVL 的设计业务 ⠀ 但 $INTC 代工端将显著受益 ⠀ 💡 一句话总结 ⠀ AI芯片格局正在从 $NVDA 一家独大 ⠀ 演变成 $GOOGL · $AVGO · $MRVL · $INTC 多方分食 ⠀ 每一层都有赢家,关键是你蹲在哪一层 ⠀ ❓ 你最看好哪家从这轮ASIC浪潮中获益最多? ⠀ 评论区告诉我 👇
显示更多
今天看AMD财报及电话会议能确认的几个关键点: 1、明确提到了服务器CPU的TAM(潜在市场总量)到2030年超过1200亿美元,苏妈原话是这么说的:“基于我们目前观察到的需求信号,以及智能体AI(AgenticAI)驱动的CPU计算需求的结构性增长,我们现在预计服务器CPU的潜在市场总量(TAM)将以每年超过 35% 的速度增长,到 2030年将超过1200亿美元。” 而25年11月分析师大会上当时预估时为约600亿美元(18%CAGR),现在是1200亿美金,35%CAGR 2、数据中心收入58亿美元首次超越英特尔:同比增长57%至58亿美元,其中服务器CPU收入同比增长超50%创历史新高。同期英特尔DCAI收入51亿美元、增速22%——AMD在数据中心领域的收入规模首次实现反超。 。从2017年Zen架构首次进入服务器市场到今天,AMD用了近10年时间完成了这个历史性的反超。 3、服务器CPU业务是最大亮点——连续第4个季度创收入记录,同比增长超50%。云和企业客户各增长超50%,EPYC驱动的云实例数同比增长近50%至超过1600个。5代EPYC Turin的爬坡和4代Genoa的持续出货共同推动了增长。苏妈特别指出,增长主要由出货量驱动而非提价,ASP的提升更多来自产品组合和核心数的增加。 4、服务器CPU的故事正变得越来越有说服力。TAM从600亿翻倍至1200亿本身就是一个值得停下来消化的数字。管理层的逻辑链很清晰:Agentic AI的普及→推理量爆发→每个agent需要CPU来编排和处理数据→CPU与GPU的配比从1:4提升到1:1甚至更高→CPU TAM倍增。Q2服务器CPU收入指引同比增长超70%,全年增长轨迹还在加速。 4月中的这篇推文,也有详细聊到CPU在Agent时代关键位置提振的底层逻辑,也给到个人认为利好的标的,今天都在爆发,连A股的海光信息都涨停了20%一根大阳线。 现在看CPU这个趋势还在加强
显示更多
0
19
208
41
转发到社区
英伟达老板黄仁勋亲口承认,未来推理需求将会增长10亿倍! 兄弟们,是10亿倍,不是100倍,不是1000倍,拿好您的CPU,还有电力能源!我准备把内存芯片股票逐步止盈,押注更多的CPU和能源板块!🧐 我们仅仅才刚刚开始,CPU需求将会指数级增长,未来可能CPU体量会超过GPU,苏妈说的1:1配比,可能依旧偏向保守了! $AMD $INTC $ARM $NVDA
显示更多
上次推文重点提到CPU的爆发需求,不辱使命,如期迎来大暴涨,上次AMD价格还在280美金,今天已经409美金,半个月涨幅高达46%!从最新苏妈的电话会议来看,未来GPU与CPU需求将是1:1的比例,更加证实了当时我们的预判:「到2030年,未来75%的AI计算需求将会来自推理,CPU市场将会迎来大爆发」 今天看完 #AMD# 交出的这份 2026 Q1 成绩单,我最直观的感受是,风向变了。 如果说过去两年是“大模型训练”的肌肉秀,那么现在,我们正式进入了「AI Agent与推理」的爆发期。在这个阶段,原本被视为“配角”的 CPU,正在拿回它的主场。 1️⃣逻辑重构:CPU 配比逻辑变了! 以前数据中心都是1颗CPU带8颗GPU,CPU就是个配角,负责发指令递数据。 但苏妈这次财报会提到,推理和智能体场景下,CPU的压力远超预期。 Agent不是简单的问答,它要做任务编排、拆解步骤、调用插件,这些都是CPU干的活。 所以现在高密度AI场景下,CPU和GPU的配比正在从1:8往1:1演进,甚至更高。 AMD把服务器CPU的市场预期直接从18%年复合增长拉到35%,到2030年是1200亿美金的盘子。这个调整很有意思。 2️⃣财报十分亮眼:不只是增长,是质变 这次 AMD 的数据确实硬气,创纪录的 103 亿美元营收(同比增长 38%)只是表象,真正让我这个投资者兴奋的是底层的财务质量: 利润率实现“戴维斯双击”, 毛利率拉升到 55%,自由现金流翻了三倍多。这说明 AMD 卖出的产品越来越高端,话语权越来越强。 数据中心成了绝对核心,营收占比和增长几乎全靠数据中心(同比涨 57%)。以前大家觉得 AMD 是靠 PC 起家的,现在它已经彻底进化成了一家高性能 AI 基础设施公司。 另外Meta给了个6GW级别的大单,还是多代定制的MI450,说明在顶级客户眼里,AMD已经不是备胎,是正选了。 3️⃣护城河:从“单兵作战”到“机架级全家桶” 我注意到苏妈提到了一个关键词:「Helios 架构」。 这是AMD的杀手锏,把自家最强的EPYC CPU(Verano系列)和Instinct GPU(MI450)做成机架级方案,直接送货上门。 相比之下,英特尔虽然也在追赶,但制程和生态整合上还有坑;而 ARM 方案虽然省电,但在处理复杂、高吞吐的 AI 编排任务时,还是打不过 AMD 的 x86 性能怪兽。 4️⃣有个小风险⚠️ 内存价格暴涨,HBM4和高端内存太贵,成本压力很大,游戏业务下半年预期下滑20%以上。虽然苏妈说供应链他们能处理,但这块肉确实被割了。 总结来说,我个人目前长期看好CPU发展的逻辑和方向,AMD已经从便宜替代品变成高性能定义者。苏妈提的EPS超20美金目标,按现在增长势头(Q2预期涨46%),不像画饼。 关注7月份推进AI活动,会有2纳米Zen 6架构CPU和MI450的更多细节。 如果您跟我一样,坚定的相信,AI会从聊天框演变成全自动AI Agent时代,那么AMD的CPU+GPU双轮驱动,可能是目前市场上比较稳的爆发点。 以前买AMD是买潜力,现在买AMD是买确定性。🧐 持续关注CPU赛道,另外还有其他相关利好公司,比如 #ARM# #INTC# 等,DYOR🙏 目前上述提及的公司在 #MSX# 上面基本都有,炒美股,我选择用 #RWA# 美股代币化平台 #MSX,一同投资参与美股市场:# 早期美股投资粉丝和伙伴,可以私信我,填写表单后,可免费进入美股交流和探讨社群(目前每周仅限定10人,助理审核,可能需要一点时间,感恩🙏)!
显示更多
0
38
463
115
转发到社区
上次推文重点提到CPU的爆发需求,不辱使命,如期迎来大暴涨,上次AMD价格还在280美金,今天已经409美金,半个月涨幅高达46%!从最新苏妈的电话会议来看,未来GPU与CPU需求将是1:1的比例,更加证实了当时我们的预判:「到2030年,未来75%的AI计算需求将会来自推理,CPU市场将会迎来大爆发」 今天看完 #AMD# 交出的这份 2026 Q1 成绩单,我最直观的感受是,风向变了。 如果说过去两年是“大模型训练”的肌肉秀,那么现在,我们正式进入了「AI Agent与推理」的爆发期。在这个阶段,原本被视为“配角”的 CPU,正在拿回它的主场。 1️⃣逻辑重构:CPU 配比逻辑变了! 以前数据中心都是1颗CPU带8颗GPU,CPU就是个配角,负责发指令递数据。 但苏妈这次财报会提到,推理和智能体场景下,CPU的压力远超预期。 Agent不是简单的问答,它要做任务编排、拆解步骤、调用插件,这些都是CPU干的活。 所以现在高密度AI场景下,CPU和GPU的配比正在从1:8往1:1演进,甚至更高。 AMD把服务器CPU的市场预期直接从18%年复合增长拉到35%,到2030年是1200亿美金的盘子。这个调整很有意思。 2️⃣财报十分亮眼:不只是增长,是质变 这次 AMD 的数据确实硬气,创纪录的 103 亿美元营收(同比增长 38%)只是表象,真正让我这个投资者兴奋的是底层的财务质量: 利润率实现“戴维斯双击”, 毛利率拉升到 55%,自由现金流翻了三倍多。这说明 AMD 卖出的产品越来越高端,话语权越来越强。 数据中心成了绝对核心,营收占比和增长几乎全靠数据中心(同比涨 57%)。以前大家觉得 AMD 是靠 PC 起家的,现在它已经彻底进化成了一家高性能 AI 基础设施公司。 另外Meta给了个6GW级别的大单,还是多代定制的MI450,说明在顶级客户眼里,AMD已经不是备胎,是正选了。 3️⃣护城河:从“单兵作战”到“机架级全家桶” 我注意到苏妈提到了一个关键词:「Helios 架构」。 这是AMD的杀手锏,把自家最强的EPYC CPU(Verano系列)和Instinct GPU(MI450)做成机架级方案,直接送货上门。 相比之下,英特尔虽然也在追赶,但制程和生态整合上还有坑;而 ARM 方案虽然省电,但在处理复杂、高吞吐的 AI 编排任务时,还是打不过 AMD 的 x86 性能怪兽。 4️⃣有个小风险⚠️ 内存价格暴涨,HBM4和高端内存太贵,成本压力很大,游戏业务下半年预期下滑20%以上。虽然苏妈说供应链他们能处理,但这块肉确实被割了。 总结来说,我个人目前长期看好CPU发展的逻辑和方向,AMD已经从便宜替代品变成高性能定义者。苏妈提的EPS超20美金目标,按现在增长势头(Q2预期涨46%),不像画饼。 关注7月份推进AI活动,会有2纳米Zen 6架构CPU和MI450的更多细节。 如果您跟我一样,坚定的相信,AI会从聊天框演变成全自动AI Agent时代,那么AMD的CPU+GPU双轮驱动,可能是目前市场上比较稳的爆发点。 以前买AMD是买潜力,现在买AMD是买确定性。🧐 持续关注CPU赛道,另外还有其他相关利好公司,比如 #ARM# #INTC# 等,DYOR🙏 目前上述提及的公司在 #MSX# 上面基本都有,炒美股,我选择用 #RWA# 美股代币化平台 #MSX,一同投资参与美股市场:# 早期美股投资粉丝和伙伴,可以私信我,填写表单后,可免费进入美股交流和探讨社群(目前每周仅限定10人,助理审核,可能需要一点时间,感恩🙏)!
显示更多
0
51
114
61
转发到社区
英伟达的护城河,正在被三方夹击 2025 年我还说"英伟达是这一轮 AI 浪潮的最大赢家",现在我修正一下——护城河还在,但水位在下降。 三个方向同时在凿它的墙: 1. 大客户在自研芯片 Google 的 TPU、Amazon 的 Trainium、Meta 的 MTIA、Microsoft 的 Maia——四大云厂商加起来贡献了英伟达 40% 收入,他们全部在去英伟达化。不是替代,是减少依赖。 2. AMD 在追上来 MI400 系列在推理性能上和 H200 接近,价格便宜 30%。OpenAI、xAI 已经下了大单分散供应链。 3. 中国市场被切走 出口管制 + 国产替代(华为昇腾、寒武纪),中国那块蛋糕英伟达基本吃不到了,但中国 AI 产业反而被逼出了完整的国产链。 那英伟达还能投吗? 短期(6-12 个月):还能涨,因为 AI 推理需求还在爆炸式增长,产能依然紧张。 中期(1-3 年):增长会放缓,毛利率被压缩。从"卖铲子的垄断者"变成"卖铲子的领跑者"。 长期(3 年+):成为英特尔式的成熟巨头,估值倍数会从 30 倍 PE 回归到 15-20 倍。 给投资者的提醒:把 NVDA 当成"周期股 + 成长股"的混合体来看,而不是永动机。它会有大回撤,每次都是机会,但别再期望年年翻倍。
显示更多
0
44
105
13
转发到社区
生成式AI往代理式AI迁移中,新的卡脖子环节又出现了,这次是CPU。之前市场关于算力紧缺的讨论都在GPU、HBM、光模块、电力等环节,其实对于CPU的关注比较少。其实Cpu的紧缺传了一段时间了,看最近英特尔、AMD走势最核心驱动力就是来自cpu开始出现紧缺了,甚至连过往不怎么受待见的港股联想集团,最近两周走的也很强。 1、为什agentic ai时代CPU占比会扩大? 传统AI(主要是大模型训练/推理)高度依赖GPU,因为Transformer的核心是并行矩阵运算,GPU擅长高吞吐的并行计算。这时CPU主要只负责“辅助”:数据路由、内存压缩、GPU调度等,导致数据中心CPU:GPU比例很低(典型1:4~1:8,甚至1颗CPU管8颗GPU)。CPU利用率低,基本是配角。 Agentic AI完全不同,它不是单次“问答”,而是自主多步循环(Planning → Tool Use → Act → Observe → Reflect → Iterate),涉及: 1)编排:调度子任务、多智能体协作、分支逻辑、重试机制。 2)工具调用:网页搜索、API调用、代码执行、数据库查询、向量检索(RAG)、文件处理等。 3)其他CPU密集任务:上下文管理、KV Cache处理、强化学习(RL)仿真评估、数据预/后处理。 这些任务高度串行、I/O密集、逻辑分支多,GPU并不擅长(甚至会闲置)。研究显示:工具处理阶段在CPU上可占总延迟的50%~90.6%(GPU在等待CPU)。Agentic工作流中CPU动态能耗占比可达44%,比传统AI高3~4倍。 简单说,Agentic AI把“思考”交给GPU,但把“做事/协调”交给CPU。CPU从“管家”变成了“总指挥”,必须大幅增加才能让整个系统高效运转。这就是CPU占比扩大的核心驱动(Intel、AMD、Arm、TrendForce等一致观点)。 2、CPU成为新紧缺环节的现实证据 今年Q1 Intel/AMD服务器CPU交期已经拉到6-12周,部分型号基本售罄,价格也提了10%以上。厂商自己都说“demand far exceeded expectations”。不是产能不够,而是Agentic AI把CPU从“可有可无”直接干成了“必须配足”的总指挥。 数据中心项目现在除了电力,就是CPU卡脖子最严重。传统x86(Intel/AMD)高功耗+产能紧张,供应链直接打爆。 3、CPU缺口会有多大? 行业共识是CPU:GPU比例将显著拉近,CPU需求大幅提升:从传统1:4~1:8(CPU:GPU)转向1:1~1:2(部分场景甚至1.4:1,即CPU比GPU还多)。看之前Arm估算,每GW算力需要的CPU核心从3000万激增到1.2亿(4倍增长) CPU算力份额:在Agentic工作流中,CPU承担的算力比未来机架/集群可能从“GPU主导”转向更平衡,甚至出现专用CPU rack来支撑Agentic编排;AMD/NVIDIA新一代平台已开始按1:2~1:4设计 这就带来了CPU需求的真实拐点,是实打实的硬件重构。 4、特别要说下ARM服务器CPU会更受益一些? Agentic AI最需要的就是“高核心数+低功耗+稳定串行处理”。ARM天生多核可扩展、perf/watt领先:Arm AGI CPU(136核,TDP仅300W)对比x86同规格功耗低40%+,每机架性能直接翻倍。风冷机架就能塞8000+核,液冷更能到4万+核,完美解决数据中心的“功耗墙”。 更狠的是生态大转向:AWS Graviton、Google Axion、Microsoft Cobalt早就自研ARM,云巨头集体“去x86化”。Arm 3月直接下场自研AGI CPU(首款量产芯片),Meta、OpenAI、Cerebras都是首发伙伴,OEM有联想、Supermicro。 Counterpoint预测:AI ASIC服务器CPU里,ARM份额从2025年25%干到2029年90%。Arm自己说,这波能把数据中心CPU TAM从30亿版税干到1000亿+,未来几年服务器CPU营收很可能超手机,成为最大增长极。 看下周和5月初英特尔、amd的财报电话会上,cpu实际出货量的变化、以及cpu的真实价格变化。这能说明真的有多紧缺。 5、CPU紧缺哪些公司会受益? 梳理了下哪些公司会受益,后续关注起来: 美股最核心: Intel (INTC)ntel 依然是服务器 CPU 市场的霸主。短缺潮会提升其过往型号的利润率,且其 Gaudi 与 Xeon 的组合在代理推理端有强劲需求。 AMD (AMD):理由:在 Agentic AI 服务器市场,AMD 的 EPYC 处理器因多核心优势和高性价比,目前在云厂商中的市占率持续提升,是 GPU+CPU 均衡配置趋势下的首选。 Arm Holdings (ARM):越来越多的云厂商(亚马逊、微软、谷歌)开始自研基于 ARM 架构的 CPU。无论谁赢,只要 Agent 需求推高 CPU 核心数,Arm 的授权费就会大涨。 港股(制造与分销关键点) 中芯国际 (0981):虽然其在最先进制程受限,但大量非核心逻辑控制芯片(支持 CPU 运作的辅助芯片)和中端 CPU 的需求外溢,会显著提升其产能利用率。 联想集团 (0992):全球第一大服务器与 PC 厂商。在短缺潮初期,拥有强大供应链管理能力和库存的大厂能通过提价和保证供应,抢占更多政企市场份额。 A股(国产替代与配套产业链) 海光信息 (688041):国产 x86 服务器 CPU 的龙头。在 Agentic AI 时代,由于其架构与全球生态兼容性最好,国内算力中心在补齐 CPU 短缺时,海光是第一顺位替代品。 龙芯中科 (688047):自主架构 CPU 的代表。随着国产自主可控需求增强,在党政和关键基础设施的 Agent 应用中受益。 深南电路 (002916) / 沪电股份 (002463):理由:配套受益。CPU 核心数增加和 GPU+CPU 配比调整,要求更复杂的 PCB(印制电路板)和封装基板,这些公司是全球高端服务器 PCB 的主力供应商。 澜起科技 (688008):内存接口芯片龙头。只要 CPU 多,内存条就多。Agent 时代对内存带宽要求极高,其 MRDIMM 和内存接口芯片是 CPU 性能爆发的必需品。 投资逻辑核心其实两点: 1)量价齐升:CPU 厂商(AMD, Intel, arm、海光)最直接。 2)卖铲子的人:由于 Agent 需要高带宽,内存配套(澜起)和先进封装/基板(深南)的需求甚至比 CPU 本身更稳。
显示更多
0
24
288
84
转发到社区
SpaceX之前最重磅的IPO估计就是下周这个超大晶圆制造商Cerebras Systems的上市了,Cerebras是一家专注于AI加速器的美国公司,总部位于加州Sunnyvale,成立于2016年。公司以“晶圆级集成”(Wafer-Scale Engine,简称WSE)技术闻名,核心产品是将整个300mm硅晶圆直接做成一颗超级大的AI处理器,而不是像传统GPU那样切成小芯片再封装。这解决了AI训练/推理中常见的内存带宽和芯片间通信瓶颈问题,被誉为“世界上最大的AI芯片”。树立了下关于Cerebras几部分关键信息。 1、核心技术和产品 1)晶圆级引擎(WSE) 传统AI芯片(如NVIDIA H100/B200)采用多芯片模块(MCM)或小型die,通过NVLink/HBM等外部互联扩展。但Cerebras的WSE把整个晶圆做成单一die,避免了芯片间通信延迟和带宽损失,实现了“片上”海量并行计算。 WSE-3采用“Weight Streaming”架构,将计算和内存解耦,支持外部MemoryX扩展(1.5TB、12TB、120TB甚至1.2 PB),单系统即可训练高达24万亿参数的超大模型。 2)CS-3系统 单台15U机柜,内置1颗WSE-3,支持水冷。通过SwarmX互联可扩展至2048台集群,峰值达256 exaFLOPS。单台CS-3就能在不到1天内从零训练Llama 2 70B模型(Meta GPU集群需约1个月)。 3)性能优势 Cerebras强调“消除数据移动瓶颈”: 比上一代CS-2(WSE-2):性能翻倍,功耗和成本不变(CS-2用7nm,2.6万亿晶体管,40 GB SRAM)。 比NVIDIA H100/B200:在内存密集型大模型任务中优势显著。CS-3单系统内存容量远超10,000节点GPU集群;推理速度可达GPU云的数倍(尤其是长上下文/大模型)。公司声称在Llama/Falcon等模型上tokens/second提升2倍。 实际基准:Condor Galaxy 3(64台CS-3集群,8 exaFLOPS)已于2024年Q2上线,与G42合作。集群编程像“单芯片”一样简单,无需复杂分布式框架。 优势: 极致内存带宽 → 适合万亿/十万亿参数模型训练与推理。 扩展性强 → 集群像单机一样编程,开发效率高。 能效/成本在特定 workloads 上优于GPU(同功耗下性能翻倍)。 挑战: 单系统功耗高(25kW),部署门槛高(需专用数据中心基础设施)。 晶圆级制造良率和缺陷容忍技术虽成熟,但整体成本高(单系统硬件估算数百万美元)。 生态不如CUDA成熟,主要针对AI训练/推理大模型,不如GPU通用。 总体上Cerebras是“垂直优化”的AI超级计算机方案,适合追求极致规模和速度的 hyperscaler、主权AI项目、国家实验室,而非通用GPU替代品。 2、发展历程 Cerebras从“卖硬件”转向“AI超级计算平台”,已从早期科研验证走向商用落地(Condor Galaxy等主权AI项目)。 从SeaMicro老兵到AI晶圆级先锋 Cerebras成立于2015-2016年(官方多以2016年计),总部位于加州Sunnyvale。创始人团队全部来自SeaMicro(2012年被AMD以3.34亿美元收购),早期处于stealth模式四年,专注解决“晶圆级集成良率难题”。 1)2019年:发布首代WSE-1,开启晶圆级AI芯片时代。 2)2020-2022年:推出CS-1/CS-2系统,完成从“芯片”到“系统+软件栈”的闭环,与TSMC深度绑定实现量产。 3)2024年:WSE-3及CS-3系统落地,性能翻倍;同期首次递交S-1(后因业务优化于2025年10月撤回)。 4)2025-2026年:转向云推理服务+混合模式,与OpenAI签署巨额合作; 5)2026年2月完成Series H,4月重启S-1,5月启动路演,计划Nasdaq上市(代码CBRS)。 3、核心团队及融资 1)核心团队 Andrew Feldman(CEO、联合创始人):连续创业者,曾任SeaMicro CEO、Force10 Networks产品VP(后被Dell收购)、Riverstone Networks营销VP。斯坦福MBA背景,擅长产品化与资本运作。 Gary Lauterbach(联合创始人、前CTO):Sun Microsystems UltraSPARC首席架构师,58项专利,曾主导AMD数据中心业务。 Sean Lie(联合创始人、现CTO):MIT本科+硕士,AMD高级架构师,29项专利。 Michael James(首席架构师):SeaMicro软件架构师,后任AMD对应岗位。 Jean-Philippe Fricker(首席系统架构师):DSSD/SeaMicro资深硬件架构师,30项专利。 团队优势在于“系统思维”而非单纯芯片设计:他们深谙数据中心功耗、互联与软件优化,曾用fabric架构重塑服务器。这正是Cerebras能解决晶圆级缺陷容忍与Weight Streaming架构的关键。 2)融资历程 累计融资约29-37亿美元(含多轮),估值从早期数百M美元飙升至IPO前230-266亿美元: 早期:Series B/C/D(2016-2018)累计约1.7亿美元,投资者包括Foundation Capital、Eclipse、Sequoia、Benchmark。 中后期:2019 Series E(2.72亿美元,估值24亿美元);2021 Series F(2.54亿美元,估值41亿美元)。 2025-2026:Series G(11亿美元,估值81亿美元);Series H(10亿美元,估值230亿美元,Tiger Global领投,Benchmark、Fidelity、AMD等跟投)。 4、业务模式与财务表现 Cerebras早期卖硬件(CS-2/CS-3系统),后来转向云服务(Cerebras Inference,云端提供超快AI推理)和混合模式。客户包括CSP、 hyperscaler、企业、主权AI项目(如G42)、研究机构。 2025财年财务:收入5.1亿美元(同比+76%,2024年2.9亿美元,2023年0.787亿美元,2022年0.246亿美元,20倍增长)。硬件收入约3.58亿美元,云及其他服务1.52亿美元。 GAAP净利润:约0.879亿美元(2024年净亏损4.85亿美元),首次实现盈利(不过非GAAP仍有亏损)。 剩余履约义务(backlog):246亿美元(OpenAI等多年前期大单贡献),2026-2027年预计确认15%。 客户集中度:2025年G42占24%(此前曾高达87%),另一UAE客户占62%,但已显著多元化;OpenAI签署超100-200亿美元多年前期合作(含1亿美元贷款+认股权证)。 公司定位从“卖芯片”转向“AI基础设施平台+云”,并与Qualcomm等合作加速边缘部署。 5、IPO相关信息: IPO 基础发行2800万A类普通股,超额配售420万A类普通股,核心管理层和投资人不卖股。纯公司发行新股用于募资,无大量旧股套现。 IPO定价$115–$125/股,因需求超20倍,已计划上调至$125–$135/股(可能进一步调整)。高区间($125)募资约35亿美元(基础28M股),含超额配售最高约40.25亿美元。 高估值下($125/股)对应市值约266亿美元IPO后总流通股本约 2.13亿百万股(包括Class A、B、N等)。其中: Class A(上市交易股)为IPO发行的28M股 + 超额部分; 其余Class B(高投票权,创始团队/早期投资者/优先股转换后)和Class N(非投票权,如OpenAI认股权证相关)。 ipo后解禁期前的流通比例 标准锁定期: 180天或提前至Q3 2026财报发布后两个交易日(取较早者)。 解禁前初始流通股(Initial Float): 仅IPO发行的 28百万股(基础)或最高 32.2百万股(含超额)。 锁定期内真实流通比例: 约 13.1%–15.1%(28M / 213M ≈ 13.1%;32.2M / 213M ≈ 15.1%) 预期定价日:下周三5月13日,预期上市交易日:5月14日(周四),代码CBRS。 整体而言估值虽高,但增长潜力和技术壁垒值得关注 本条由@bitget_zh赞助,「Bitget 买美股:秒级入场,丝滑交易 」
显示更多
0
16
364
86
转发到社区
大家都在押 GPU,但 AI agent 的真实瓶颈根本不在 GPU 上。 Georgia Tech × Intel 去年 11 月发了一篇论文 (arXiv:2511.00739),在 5 个真实 agent 系统上实测—— 工具调用(搜一下、查数据库、跑代码、读文件)占掉了整个响应时间的大头: 检索型 agent:90.6% Devin 同类代码 agent:78.7% LangChain:>50% 模型推理从来不是瓶颈。 道理其实很朴素: 一次对话里,agent 要调工具十几轮(搜一下、看结果、再搜、跑代码、看报错、再跑…)。 每一次工具调用都在 CPU 上,GPU 大部分时间其实在闲置。 更反直觉的数字: 并发请求一堆上去,CPU 电费暴涨 87 倍,GPU 只涨 27 倍。 也就是说 agent 规模一大,电费账单的主力是 CPU,不是大家盯着的 GPU。 这对 AI 基础设施的估值模型来说,是三个没被 price in 的信号: CPU 侧的"老钱"会被重新定价。 Intel / AMD 的服务器 CPU、内存带宽、互联芯片,在 agent 时代不再是"便宜的配件"。 只买更多 H100 救不了 agent 产品的延迟。很多 AI 创业公司做 agent,还在继续往 GPU 堆钱 —— 这条路走不通。 Datacenter 电费模型要重写。CPU 吃掉 44% 的动态能耗,散热和电力预算全要重估,直接影响 Neocloud 和 hyperscaler 的毛利。 AI infra 的下半场,战场从 GPU 搬到 CPU + 内存 + 互联。 大部分人还在讨论模型参数的时候,已经有人在重画 datacenter 的账本。
显示更多
0
19
383
86
转发到社区
【过去24小时A股舆情热点话题】 1. **国产芯片全面爆发** — 5月6日盘前热度最高,英伟达确认受美国对华芯片出口管制影响,在中国AI加速器市场份额已降至零。国产替代加速,昇腾、寒武纪、海光等国产芯片需求井喷。4月底字节跳动抛出56亿美元采购单,锁定约35万颗国产芯片,创国内历史纪录。韩国4月半导体出口同比飙升173.5%,连续13个月刷新月度纪录。 2. **算力租赁迎政策拐点** — 5月2日中卫云基地数据中心绿电直供50万千瓦光伏电站正式投运,我国首个大规模"算电协同"绿电供应项目落地,东数西算工程实现从沙漠风光电到数字算力的直连直通,里程碑意义。 3. **商业航天持续发酵** — 上海商业航天海上发射技术有限公司成立,注册资本11亿。长征十号乙、朱雀三号可回收火箭年内发射。SpaceX上市倒计时,全球进入新一轮"太空圈地运动"。 4. **光模块CPO技术路线升级** — 1.6T高速光模块进入大规模放量之年,DPC陶瓷基板成为最紧缺材料。富乐德等厂商产能爆发。OCS全光交换成为新热点,芯动联科等低位标的受挖掘。 5. **Agent时代CPU价值回归** — 英特尔Q1业绩超预期,Q1营收136亿美元。Agent系统多步工作流、工具调用与任务调度直接落在CPU上,CPU从数据中心"配角"回归核心调度地位。 6. **通州特区立法落地** — 5月1日《北京城市副中心条例》正式生效,首次以立法形式确立副中心为北京第二个核心区,赋予通州近似"经济特区+行政特区"功能。城建发展等标的受益。 7. **AI算力芯片产能爆发** — 三安光电光通讯DFB/EML/FP芯片月产能达12KK,PD/APD芯片月产能40KK,外延片月产能从2750片提升至6000片,6英寸外延全球前三。 8. **CPU涨价潮持续** — Intel和AMD服务器CPU涨幅达10-20%,Q3或再迎新一轮涨价。国产CPU龙芯、海光等迎来替代机遇。 9. **先进封装国产化加速** — 国产高性能AI推理芯片约300万张需要2.5D先进封装,昇腾、寒武纪、海光等一线厂商份额160-170万张。通富微电、长电科技等封装厂受益。 10. **存储芯片周期反转** — 美股存储概念股逆市走强,美光科技涨超6%,闪迪涨近6%,均创历史新高。韩国KOSPI指数涨5.12%创新高,SK海力士涨12.5%。
显示更多