註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

檢索結果 ASIC
ASIC 貼吧
一個關鍵字就是一個貼吧,路徑全站唯一。
建立貼吧
用戶
未找到
包含 ASIC 的搜尋結果
asic能挖和显卡能挖还是有指数级的差距的
$alab 从 cpu asic 二阶受益,演变为全新的赛道卡脖子,异构芯片集群互联的赛道。 得益于云需求的爆炸性增长,以及cpu/gpu 比例的改变,以及各类定制芯片的增长,异构芯片集群的叙事就出现了
顯示更多
🔥 前AMD高管深度拆解:ASIC战局与芯片巨头的隐秘关系 ⠀ $NVDA 之外的世界,正在悄悄重组 👇 ⠀ 1️⃣ 为什么 $GOOGL TPU 需求暴增? ⠀ 市场迫切需要 $NVDA 以外的选择 ⠀ 推理端需求爆发,TCO成为新战场 ⠀ 前几代TPU主打训练,现在全面转向推理 ⠀ 2️⃣ 推理时代的新指标 ⠀ 不再只追求原始算力和最大功耗 ⠀ 转向每瓦性能和每美元性能 ⠀ 效率才是下一轮竞争的核心 ⠀ 3️⃣ $GOOGL TPU 背后谁在撑场? ⠀ 核心架构:$GOOGL 自研 ⠀ SerDes IP 等关键知识产权:来自 $AVGO ⠀ 两家深度绑定,不是简单的甲乙方关系 ⠀ 4️⃣ $MRVL 的下一张牌 ⠀ $GOOGL 将与 $MRVL 合作开发下一代内存处理单元 MPU ⠀ 最大瓶颈:ASIC与内存之间的数据传输速度 ⠀ 解法:把部分计算直接卸载到内存,减少吞吐瓶颈 ⠀ 5️⃣ $INTC 的逆袭机会 ⠀ $GOOGL TPU 第九版将采用 $INTC 的 EMIB 封装技术 ⠀ $META 计划2027年用 $INTC 开发自研ASIC ⠀ 这些都是代工订单,不直接影响 $AVGO 和 $MRVL 的设计业务 ⠀ 但 $INTC 代工端将显著受益 ⠀ 💡 一句话总结 ⠀ AI芯片格局正在从 $NVDA 一家独大 ⠀ 演变成 $GOOGL · $AVGO · $MRVL · $INTC 多方分食 ⠀ 每一层都有赢家,关键是你蹲在哪一层 ⠀ ❓ 你最看好哪家从这轮ASIC浪潮中获益最多? ⠀ 评论区告诉我 👇
顯示更多
提到的5只 #CPU# 和 #ASIC# 赛道的投资标的,#INTC# 押注成功,业绩超预期,盘前直接大涨22%! 舒服了😌恭喜麦通 @MSX_CN 的小伙伴,马前炮提前提示!
顯示更多
今天看到一份报告,讲到2030年,未来75%的AI计算需求将会来自推理,这里面将会催生出AI投资下半场的巨大机会,下面👇我们来简单聊一聊。🧐 过去两年,大家都在疯狂囤 GPU 训练模型,烧钱堆算力。但最近大家有没有发现,情况开始变了?尤其是小龙虾🦞出来以后,各类Agent可谓大爆发,Token需求指数级增长。一个崭新的推理时代正在到来,未来AI最大的叙事点是让AI应用走进全球几十亿用户手中,并真正使用起来! 这个转折点,我把它叫做从「训练时代」到「推理时代」的切换。而在这个新阶段,CPU 和定制芯片将是未来真正的主角。 👇咱们掰开揉碎了讲讲,为啥我开始盯上这些以前不起眼的家伙: 🎯 AI 现在有「脑子」了 以前的 AI 就是个工具,我问它答,无法去执行具体的工作。现在不一样了,Agentic AI来了,它能帮我订机票、改文档、写代码,甚至帮我规划整个工作流程。 这种活儿需要大量的逻辑判断和顺序编排。以前GPU是肌肉男,干体力活厉害;但现在这种执行活,CPU 才是指挥官,它擅长处理复杂的逻辑。AI 越聪明,越需要 CPU 来调度指挥。 🎯 大厂也得省钱啊 看财报,各大厂在AI领域的资本开支都十分庞大,其中七巨头除苹果之外,26年全年资本开支总额超过了6000亿美金。不要以为谷歌、Meta 这些巨头就不差钱。恰恰相反,他们也是把钱花在刀刃上。假如一直用英伟达的通用 GPU 来搞推理,电费和硬件成本会把他们吃掉。 所以大厂开始自己设计专用芯片ASIC,就像咱们切菜用菜刀、砍柴用斧头,专芯专用,效率高成本低。这是实打实的降本增效。 基于上述逻辑,我们筛了五个核心标的: • #AMD:推理界的全能选手,GPU# MI300/325 系列拥有业内领先的内存带宽(256GB HBM3E内存,带宽达6TB/s,参数上优于英伟达H200),能轻松处理超大规模LLM的实时推理,而且速度快。关键是它还是服务器 CPU 的老二,代理式 AI 需要强 CPU 时,AMD 两头吃。 • #ARM:底层架构之王,谷歌、亚马逊自研芯片基本都跑# ARM 架构,ARM Neoverse 平台已经成为 90% 以上自研 AI 服务器 CPU 的首选。所以大厂搞自研,ARM 相当于在家坐着收过路费。 • 博通(#AVGO):定制芯片的总工程师,它作为# Google TPU、Meta MTIA 和字节跳动的重要合作伙伴,博通在高速互联和封装技术上拥有绝对统治力,是云巨头降低推理成本的首选合作伙伴。大厂想省钱搞自研,离不开博通的技术。 • 迈威尔(#MRVL):深度参与亚马逊# AWS 和微软 Azure 的芯片研发,这俩巨头想摆脱英伟达依赖,必须依靠迈威尔。目前迈威尔的定制硅片业务正从“研发期”进入“爆发收获期”,未来的生意只会越做越大。 • 英特尔(#INTC):虽然最近比较难,但它是唯一有自家晶圆厂的设计商,还拥有全球稀缺的# IDM 2.0 代工能力。当推理导致全球 CPU 需求激增、供应链紧张时,Intel 内部的这种协同效应和本土制造优势将会逐渐凸显,而且它还是服务器 CPU 老大。 看完整份报告,我个人认为有几个大趋势将会成为必然: 首先是从以前的「暴力算力」到未来的「精细化运营」。现在来看,整个AI 投资逻辑正在转变,不再是谁芯片最强,而是谁的方案最省钱、最能落地。说明AI真正商业化全面落地场景下,能效比率才是关键。 其次是供应链博弈。各大云巨头都在搞自研芯片,未来 AI 硬件市场会从「英伟达一家独大」变成「群雄割据」。我认为这对整个产业链将是好事。 最后就是电力依然会成为长期瓶颈。虽然 CPU 和 ASIC 在优化效率,但整体算力规模爆炸,对电力的需求还是无限大。看芯片的同时,能源赛道也值得留意。 总结一句话,#AI# 下半场,别光盯着那块最贵的 GPU,那些负责指挥的CPU和帮大厂省钱的ASIC,可能藏着下一波机会。 目前上述提及的公司在 #MSX# 上面基本都有,炒美股,我选择用 #RWA# 美股代币化平台 #MSX,一同投资参与美股市场:# 早期美股投资粉丝和伙伴,可以私信我,填写表单后,可免费进入美股交流和探讨社群(目前每周仅限定10人,助理审核,可能需要一点时间,感恩🙏)!
顯示更多
这个对Ethereum是个里程碑的事件。 原本以为需要ASIC,或者至少一年后才能实现Ethereum的block的实时证明(<12s),现在用GPU就实现了(目前需要上百个GPU,后续ASIC仍然可以进一步替代)。这首先说明了Ethereum的强大开发者生态。Ethereum Foundation几乎没有直接出钱,靠号召力也吸引了大量顶尖技术团队围绕着Ethereum的愿景来build,加速实现了实时证明。 其次,在实时证明技术的支持下,Ethreum Layer 1下一步有望实现10,000 TPS的交易容量(交易费也将下降),原因是Validator不需要重新执行大量交易的验算,只需要完成零知识证明(ZK)的验证。后者计算量极低,类似Rasberry Pi Pico的硬件就可以完成,$5,功耗<1W。这意味着Ethereum通过ZK可以同时完成去中心化和TPS两个维度的扩展。这是ZK技术的胜利。 与之相比,根据Grok,Solana理论上可达65,000 TPS,实际运行中约800 TPS,而依赖的硬件成本通常在5,000美元至10,000美元之间(一次性初始投资),运营成本(包括电费和带宽)每月约为100美元至1,500美元。这样,Solana在TPS和去中心化方面相比于Ethereum都不会有优势。 当然,Ethereum基于实时证明的协议升级,还在路上,需要加速。
顯示更多
🤯 real-time proving is here 🤯 Mainnet EVM blocks proven in under 1 Ethereum slot (12s). Goosebumps. Succinct proves every Ethereum L1 block: → 94% in <12s → 99% in <13s → 99.9% in <12s, soon™ Yesterday RISC Zero unveiled a $120K home GPU cluster—proofs expected in 9.25s. Brevis, OpenVM, Snarkify, ZisK, ZKM are weeks from joining the real-time club. Soon™ my validator will verify EVM blocks on a Rasberry Pi Pico—a $5 board that consumes <1W. I will ditch my EL client in favour of a zkEL. No 1 TB NVMe. Goodbye Geth, hello zkReth. Stateless and RAMless verification in milliseconds on a single CPU core. With real-time proving 1 gigagas/sec (10K TPS) is within reach, without compromising validator decentralisation. From now on expect regular gas limit bumps. 10% of stake is already voting for a 60M limit—your validators can too. Snarkifying mainnet turns Ethereum L1 into the first based and native rollup. Stage 2. Bug-free. Decentralised sequencing. No security council. No governance. The L1 will lead by example. This Friday we celebrate. Join us for Ethproofs call #2#, May 23 at 2pm UTC. 25 speakers, 2 hours of content. Calls are open—DM @corcoranwill for a calendar invite. We are witnessing history. Believe in something real. Believe in real-time proving.
顯示更多
0
16
28
17
轉發到社區
被低估的真相:Agentic AI 是一场以"存储"为中心的范式革命 1/ 一句话观点 Agentic AI 的核心,不是算力,是记忆。 新硬件层级正在变成: ① 记忆(HBM / DRAM / NAND) ② 并行计算(GPU / ASIC) ③ 协调者(CPU) CPU 早就不再承担主要计算逻辑。 2/ 第一性原理 人类对"智能"的终极追求只有两件事: 无限记忆 + 无限计算。 我们日常评价一个人聪不聪明,无非两点: "记性好" + "脑子转得快"。 机器智能在沿着同一条路前进。 3/ 先说市场已经讲过的故事:HBM LLM 推理的 decode 阶段是典型的 memory-bound 任务。 每生成一个 token,都要把整套 KV cache 从显存里搬一遍。 带宽不够 → 昂贵的 GPU 直接闲置。 这就是为什么 GPU 每升一代,HBM 的带宽和容量都在追着涨。 4/ 市场没怎么讲的故事:1M context 不是在 GPU 集群里组装的 我们天天说的"1M context",并不是在 AI 推理集群中拼出来的。 它的真正组装地点,是 跑 Agentic 系统的传统服务器(CPU + 大 DRAM)。 5/ 那些传统服务器在做什么? • 加载用户的长期 / 短期记忆 • 加载 agent 的系统规范(system prompt) • 加载 skill / tool / subagent 的说明 • 拼到超过 1M token 时,还要做压缩 这一整套,全部跑在 Agentic 服务器的 DRAM 里。 6/ 对比过去的互联网 / 移动互联网 过去几乎不处理用户上下文。 只有搜索 / 推荐 / 广告才会留一点用户画像, 数据量大概只有现在 Agentic 系统的 1/20,甚至 1/100。 7/ 供应链已经在反映这件事 服务器的 CPU : DRAM 配比,正从 传统的 1 core : 4 GB 升级到 1 : 16,并继续往上走。 8/ 但远不止"4 倍存储"那么简单 Agentic 状态下,单颗 CPU 能服务的用户数,只有过去的几分之一。 当整个 IT 都切到 Agentic: • CPU 数量:增长 几倍 ~ 十几倍 • DRAM 总量:增长 几十倍 ~ 上百倍 9/ 结论 Agentic AI 是一次以 "存储 + 并行计算" 为核心的范式迁移。 软件范式变了,硬件范式也跟着变。 只有真正读懂技术的人,才会理解: 这一轮存储不是周期,是范式。 10/ 时间维度 考虑到: • 人群渗透率还很低 • 单用户使用深度还很浅 未来至少 5 年,看不到这轮存储需求的周期顶部。 (拉长时间看万物皆周期,但这一轮远没到拐点) $MU $DRAM $SNDK
顯示更多
0
7
198
59
轉發到社區
$MRVL 收购瑞士光学公司Polariton,为下一代3.2T光模块提前作技术储备。 $MRVL 绝对的大帝之姿,未来20倍机会,市值还没中际旭创大。 它还是仅次于博通的ASIC芯片设计公司。 俩个赛道都是天花板万亿美金。 现在这个市值太便宜了。
顯示更多
0
32
406
67
轉發到社區
大帝之姿, $MRVL 位于最赚钱的俩个赛道 1.光电转换与英伟达深度绑定。 2.去英伟达化的ASIC定制芯片。 这俩业务都能各送 $MRVL 万亿市值。 都处在头部,也是全球唯一即服务于英伟达又服务于“去英伟达”芯片业务的公司。
顯示更多
$MRVL 有大帝之姿, 如果未来AI混战是谷歌AI胜出, $MRVL 估计在三年内轻松达到2万亿美金,20倍。ASIC芯片设计领域规模体量远不如博通,在去英伟达的前景下各大厂纷纷搞自研芯片 $MRVL 芯片设计业务也算入局了,同时本身又在光电转换方面有极高技术储备,都处在未来热点上。
顯示更多
0
15
223
42
轉發到社區
$MRVL 有大帝之姿, 如果未来AI混战是谷歌AI胜出, $MRVL 估计在三年内轻松达到2万亿美金,20倍。ASIC芯片设计领域规模体量远不如博通,在去英伟达的前景下各大厂纷纷搞自研芯片 $MRVL 芯片设计业务也算入局了,同时本身又在光电转换方面有极高技术储备,都处在未来热点上。
顯示更多
0
29
219
35
轉發到社區
Taalas 这个芯片,反而币圈人最好理解。 假设,现在的 GPU 训练 AI = 曾经的 GPU 挖 BTC 那么,Taalas 芯片训练 AI = Asic 矿机挖 BTC 不过缺点是:BTC 在量子计算到来前,都不会再换算法。但是每推出一个新的 AI 大模型,Taalas 都得重新生产一个芯片。
顯示更多
24 dedicated people. $30M spent on development. Extreme specialization, speed, and power efficiency. Today we launch Taalas’ first product. Check it out: Details:  Demo chatbot:  API: 
顯示更多