註冊並分享邀請連結,可獲得影片播放與邀請獎勵。

檢索結果 晶エリー
晶エリー 貼吧
一個關鍵字就是一個貼吧,路徑全站唯一。
建立貼吧
用戶
未找到
包含 晶エリー 的搜尋結果
MIAA-274 晶愛麗 (#晶エリー#) 篠田優 (#篠田ゆう#) 本該是正常的學校旅行,卻突然變成了3日2夜的搾精大會!兩位慾求不滿的女教師,擁有大屁股,大奶子,和色情的身體,她們互相競爭,為年輕男教師的雞巴而戰!永遠堅持三人行,即使已顫抖射精,也保証令雞巴會再次勃起‼️
顯示更多
0
0
257
20
轉發到社區
王晶:什么时候你看舒淇觉得好漂亮,说明你成熟了。
【蓋晶圓廠】Tesla與SpaceX將聯手造晶片 用於機械人、AI以及太空數據中心 馬斯克(Elon Musk,圖)表示,他的Terafab項目將落地美國奧斯汀,並由Tesla和SpaceX共同營運。該項目旨在最終為機械人、人工智能以及太空數據中心等應用生產自有晶片。
顯示更多
2.4日晶科证实了马斯克团队近期对大陆光伏企业的集体考察. 太空光伏很可能真要来了.
0
27
125
15
轉發到社區
日经新闻:中国要求今年矽晶圆70%国产化 据《日经新闻》5 日(周二)报导,中国已向国内晶片制造商提出一项非正式但明确的要求,今年使用的矽晶圆,70% 必须来自本土供应商。 此举代表在 AI 时代晶片战略地位日益凸显的背景下,中国正加速推进半导体供应链全环节国产化替代。 矽晶圆是晶片制造的基底材料,其中 12 英寸(300mm)大矽晶圆是生产高性能逻辑晶片和记忆体晶片的核心元件。目前全球市场由日本信越化学和胜高(SUMCO)主导,两家合计占据半壁江山。 消息人士透露,新规实质上意味著「只有 30% 的场仍对外国玩家开放」。尽管在先进制程领域中国仍需要进口高阶矽晶圆,但在成熟和传统晶片市场,国产矽晶圆已能满足需求。 领衔此次国产替代的是西安奕斯伟材料科技。该公司计划 2026 年将 12 英寸矽晶圆月产能提升至 120 万片,可满足 40% 国内需求。其他扩产企业还包括沪硅产业、中环领先和杭州立昂微等。 奕斯伟已向中芯国际 (688981-CN) 等多家本土大厂供货,并逐步成为新建晶圆厂默认供应商;其产品还在接受三星电子和 SK 海力士的验证,并与美光科技 (MU-US) 、联华电子 (2303-TW) 有供应联系。
顯示更多
0
23
36
4
轉發到社區
SpaceX之前最重磅的IPO估计就是下周这个超大晶圆制造商Cerebras Systems的上市了,Cerebras是一家专注于AI加速器的美国公司,总部位于加州Sunnyvale,成立于2016年。公司以“晶圆级集成”(Wafer-Scale Engine,简称WSE)技术闻名,核心产品是将整个300mm硅晶圆直接做成一颗超级大的AI处理器,而不是像传统GPU那样切成小芯片再封装。这解决了AI训练/推理中常见的内存带宽和芯片间通信瓶颈问题,被誉为“世界上最大的AI芯片”。树立了下关于Cerebras几部分关键信息。 1、核心技术和产品 1)晶圆级引擎(WSE) 传统AI芯片(如NVIDIA H100/B200)采用多芯片模块(MCM)或小型die,通过NVLink/HBM等外部互联扩展。但Cerebras的WSE把整个晶圆做成单一die,避免了芯片间通信延迟和带宽损失,实现了“片上”海量并行计算。 WSE-3采用“Weight Streaming”架构,将计算和内存解耦,支持外部MemoryX扩展(1.5TB、12TB、120TB甚至1.2 PB),单系统即可训练高达24万亿参数的超大模型。 2)CS-3系统 单台15U机柜,内置1颗WSE-3,支持水冷。通过SwarmX互联可扩展至2048台集群,峰值达256 exaFLOPS。单台CS-3就能在不到1天内从零训练Llama 2 70B模型(Meta GPU集群需约1个月)。 3)性能优势 Cerebras强调“消除数据移动瓶颈”: 比上一代CS-2(WSE-2):性能翻倍,功耗和成本不变(CS-2用7nm,2.6万亿晶体管,40 GB SRAM)。 比NVIDIA H100/B200:在内存密集型大模型任务中优势显著。CS-3单系统内存容量远超10,000节点GPU集群;推理速度可达GPU云的数倍(尤其是长上下文/大模型)。公司声称在Llama/Falcon等模型上tokens/second提升2倍。 实际基准:Condor Galaxy 3(64台CS-3集群,8 exaFLOPS)已于2024年Q2上线,与G42合作。集群编程像“单芯片”一样简单,无需复杂分布式框架。 优势: 极致内存带宽 → 适合万亿/十万亿参数模型训练与推理。 扩展性强 → 集群像单机一样编程,开发效率高。 能效/成本在特定 workloads 上优于GPU(同功耗下性能翻倍)。 挑战: 单系统功耗高(25kW),部署门槛高(需专用数据中心基础设施)。 晶圆级制造良率和缺陷容忍技术虽成熟,但整体成本高(单系统硬件估算数百万美元)。 生态不如CUDA成熟,主要针对AI训练/推理大模型,不如GPU通用。 总体上Cerebras是“垂直优化”的AI超级计算机方案,适合追求极致规模和速度的 hyperscaler、主权AI项目、国家实验室,而非通用GPU替代品。 2、发展历程 Cerebras从“卖硬件”转向“AI超级计算平台”,已从早期科研验证走向商用落地(Condor Galaxy等主权AI项目)。 从SeaMicro老兵到AI晶圆级先锋 Cerebras成立于2015-2016年(官方多以2016年计),总部位于加州Sunnyvale。创始人团队全部来自SeaMicro(2012年被AMD以3.34亿美元收购),早期处于stealth模式四年,专注解决“晶圆级集成良率难题”。 1)2019年:发布首代WSE-1,开启晶圆级AI芯片时代。 2)2020-2022年:推出CS-1/CS-2系统,完成从“芯片”到“系统+软件栈”的闭环,与TSMC深度绑定实现量产。 3)2024年:WSE-3及CS-3系统落地,性能翻倍;同期首次递交S-1(后因业务优化于2025年10月撤回)。 4)2025-2026年:转向云推理服务+混合模式,与OpenAI签署巨额合作; 5)2026年2月完成Series H,4月重启S-1,5月启动路演,计划Nasdaq上市(代码CBRS)。 3、核心团队及融资 1)核心团队 Andrew Feldman(CEO、联合创始人):连续创业者,曾任SeaMicro CEO、Force10 Networks产品VP(后被Dell收购)、Riverstone Networks营销VP。斯坦福MBA背景,擅长产品化与资本运作。 Gary Lauterbach(联合创始人、前CTO):Sun Microsystems UltraSPARC首席架构师,58项专利,曾主导AMD数据中心业务。 Sean Lie(联合创始人、现CTO):MIT本科+硕士,AMD高级架构师,29项专利。 Michael James(首席架构师):SeaMicro软件架构师,后任AMD对应岗位。 Jean-Philippe Fricker(首席系统架构师):DSSD/SeaMicro资深硬件架构师,30项专利。 团队优势在于“系统思维”而非单纯芯片设计:他们深谙数据中心功耗、互联与软件优化,曾用fabric架构重塑服务器。这正是Cerebras能解决晶圆级缺陷容忍与Weight Streaming架构的关键。 2)融资历程 累计融资约29-37亿美元(含多轮),估值从早期数百M美元飙升至IPO前230-266亿美元: 早期:Series B/C/D(2016-2018)累计约1.7亿美元,投资者包括Foundation Capital、Eclipse、Sequoia、Benchmark。 中后期:2019 Series E(2.72亿美元,估值24亿美元);2021 Series F(2.54亿美元,估值41亿美元)。 2025-2026:Series G(11亿美元,估值81亿美元);Series H(10亿美元,估值230亿美元,Tiger Global领投,Benchmark、Fidelity、AMD等跟投)。 4、业务模式与财务表现 Cerebras早期卖硬件(CS-2/CS-3系统),后来转向云服务(Cerebras Inference,云端提供超快AI推理)和混合模式。客户包括CSP、 hyperscaler、企业、主权AI项目(如G42)、研究机构。 2025财年财务:收入5.1亿美元(同比+76%,2024年2.9亿美元,2023年0.787亿美元,2022年0.246亿美元,20倍增长)。硬件收入约3.58亿美元,云及其他服务1.52亿美元。 GAAP净利润:约0.879亿美元(2024年净亏损4.85亿美元),首次实现盈利(不过非GAAP仍有亏损)。 剩余履约义务(backlog):246亿美元(OpenAI等多年前期大单贡献),2026-2027年预计确认15%。 客户集中度:2025年G42占24%(此前曾高达87%),另一UAE客户占62%,但已显著多元化;OpenAI签署超100-200亿美元多年前期合作(含1亿美元贷款+认股权证)。 公司定位从“卖芯片”转向“AI基础设施平台+云”,并与Qualcomm等合作加速边缘部署。 5、IPO相关信息: IPO 基础发行2800万A类普通股,超额配售420万A类普通股,核心管理层和投资人不卖股。纯公司发行新股用于募资,无大量旧股套现。 IPO定价$115–$125/股,因需求超20倍,已计划上调至$125–$135/股(可能进一步调整)。高区间($125)募资约35亿美元(基础28M股),含超额配售最高约40.25亿美元。 高估值下($125/股)对应市值约266亿美元IPO后总流通股本约 2.13亿百万股(包括Class A、B、N等)。其中: Class A(上市交易股)为IPO发行的28M股 + 超额部分; 其余Class B(高投票权,创始团队/早期投资者/优先股转换后)和Class N(非投票权,如OpenAI认股权证相关)。 ipo后解禁期前的流通比例 标准锁定期: 180天或提前至Q3 2026财报发布后两个交易日(取较早者)。 解禁前初始流通股(Initial Float): 仅IPO发行的 28百万股(基础)或最高 32.2百万股(含超额)。 锁定期内真实流通比例: 约 13.1%–15.1%(28M / 213M ≈ 13.1%;32.2M / 213M ≈ 15.1%) 预期定价日:下周三5月13日,预期上市交易日:5月14日(周四),代码CBRS。 整体而言估值虽高,但增长潜力和技术壁垒值得关注 本条由@bitget_zh赞助,「Bitget 买美股:秒级入场,丝滑交易 」
顯示更多
0
16
364
86
轉發到社區
我爸大半夜不睡觉在百度上搜了一个小时依托咪酯 今天被晶了 我他妈在房间里吓的不敢喘气我以为晶的是我
0
75
303
4
轉發到社區
Openai搞的这个Cerebras 芯片比较有意思😅 1. 晶圆级尺寸 (Wafer-Scale):世界上最大的芯片,有多大呢,脸盘那么大.😅 晶体管数量: 拥有 4 万亿个晶体管(作为对比,H100 只有 800 亿个) 2. 极高的片上内存带宽 (On-chip SRAM) 这是 Cerebras 吊打 GPU 的核心武器。 消除瓶颈: 在传统的 GPU 架构中,模型计算时需要在显存(HBM)和计算核心(Core)之间频繁搬运数据,这产生了巨大的能耗和延迟。(内存计算会稀释HBM增长率,但蛋糕足够大,同时SRAM的成本也很高,前期对三星海力士美光三巨头威胁不大) 全片上存储: Cerebras 拥有高达 44GB 的片上 SRAM 内存,带宽达到了每秒 21 PB (PetaBytes)。这意味着模型的大部分权重可以完全存储在芯片内部,读写速度比 GPU 的显存快上千倍,从而实现了 OpenAI 模型那样的“秒速”推理。 3. 极简的编程与扩展 单机即集群: 由于芯片本身足够大,一个 Cerebras 节点(CS-3)的算力就相当于几十个甚至上百个传统的 GPU 节点。 无需切分模型: 开发者不需要像在 GPU 集群上那样,把一个大模型拆分成很多份并考虑复杂的跨服务器通讯(Model Parallelism)。在 Cerebras 看来,整个模型就在“一块”芯片上跑。 4. 针对大语言模型 (LLM) 的稀疏优化 处理零值: AI 模型中有很多权重是“零”(稀疏性),传统 GPU 依然会对这些零进行无效计算。Cerebras 芯片内置了稀疏计算引擎,能够直接跳过零值,从而进一步榨取性能。
顯示更多
0
23
89
15
轉發到社區
🚀 Cerebras 热度拉满, MSX Pre-IPO 一期也迎来验证时刻。 📌 美东时间 5 月 14 日, $CBRS 正式上线,IPO 发行价定在 185 美元。 🧠 作为英伟达挑战者, Cerebras 押注 AI 推理与晶圆级芯片路线, 也是当下 AI 半导体赛道最受关注的新变量之一。 🎁 已参与 MSX Pre-IPO 一期 Cerebras 项目的用户, 可直接获得空投的 $ CBRS.M 股票代币。 💡 从 Pre-IPO 到 IPO, MSX 想做的很简单: 让优质资产自由流通, 链上美股用麦通。 #MSX# #麦通# #链上美股用麦通# #CBRS# #Cerebras# #AI#
顯示更多
英伟达 $NVDA 作为豪门金字塔顶尖的那个人,手指缝漏一点都够底下AI供应链吃半年! 1. $TSM - 台积电 英伟达GPU核心晶圆代工厂,负责Blackwell/Rubin等先进制程芯片生产,是AI供应链最上游关键伙伴,受益于NVIDIA产能扩张。 2. $SMCI - 超微电脑 英伟达AI服务器主要组装商,提供高性能GPU服务器解决方案,直接受益于数据中心部署需求爆发。 3. $MU - 美光科技 HBM高带宽内存重要供应商,AI训练和推理对内存需求激增,推动其营收强劲增长。 4. $AVGO - 博通 定制AI芯片和网络芯片领导者,与英伟达在NVLink等生态合作,AI半导体收入高速增长。 5. $MRVL - 迈威尔科技 英伟达投资20亿美元,聚焦硅光子和NVLink Fusion定制XPU,是异构计算关键伙伴。 6. $IREN - 艾瑞斯能源 英伟达巨额投资并签订GPU云服务大单,转型AI数据中心运营商,基础设施扩张潜力大。 7. $CRWV - CoreWeave 英伟达重仓的AI云基础设施提供商,专注GPU集群部署,是“NVIDIA生态新云”代表。 8. $NBIS - Nebius Group 英伟达投资的AI云公司,助力全球算力扩展和推理服务。 9. $LITE - 朗美通 英伟达投资的光学组件龙头,高速光模块解决AI数据中心带宽瓶颈。 10. $COHR - 相干公司 与Lumentum同期获英伟达投资,光子学和激光技术核心供应商。 11. $GLW - 康宁 英伟达投资支持光纤基础设施,新工厂扩产应对AI数据中心光纤需求。 12. $ANET - Arista Networks 高性能以太网交换机领导者,连接AI GPU集群的关键网络设备供应商。 13. $VRT - Vertiv 数据中心电源与冷却解决方案提供商,与英伟达深度合作应对高密度AI机架散热。 14. $ARM - Arm Holdings 英伟达投资的CPU/IP架构核心公司,AI芯片设计广泛使用其技术。 15. $ASML - ASML 极紫外光刻机垄断供应商,支持先进制程芯片生产,间接驱动英伟达GPU创新。 16. $CRDO - Credo Technology 高速连接和信号完整性解决方案,受益于AI服务器内部互联需求。 17. $APLD - Applied Digital 英伟达投资的数据中心运营商,专注AI/HPC基础设施建设。 18. $CLS - Celestica AI服务器和硬件制造服务商,在供应链中表现突出。 19. $STX - Seagate 数据中心存储解决方案供应商,AI海量数据存储需求驱动增长。 20. $CIEN - Ciena 光网络设备提供商,支持AI数据中心长距离高速传输。
顯示更多
0
69
363
125
轉發到社區