SGNL Intelligence.
EN 中文
1 min read

NVIDIA Rubin延期了。谁赢了,谁被挤压了。

NVIDIARubinHBM4供应链GoogleTPUAMDSK HynixSamsungOpenAI

全球最受期待的芯片刚刚撞上了一堵墙。不是算力墙。不是功率墙。

是存储墙。

NVIDIA的Vera Rubin GPU——本应带来5倍于Blackwell的推理性能10倍更低的每token成本——据报延期了一个季度。原因不是工程问题,不是需求问题。原因是全球根本无法制造足够的HBM4内存来供给它。


发生了什么

供应链消息源报告NVIDIA已减少了Vera Rubin在TSMC的初始晶圆投片量。原因是HBM4供应低于预期。GPU封装数量减少,NVIDIA的CoWoS先进封装需求也随之下降。

Rubin时间线:从'全面生产'到延期
Jan 2026
Jensen: Rubin 'in full production'
CES keynote — customer samples shipping, cloud partners deploying H2 2026
Early Mar
Reports: H200 capacity shifted TO Rubin
NVIDIA reallocating TSMC capacity to accelerate Rubin launch
Mar 15
Supply chain: Rubin delayed 1 quarter
Reduced wafer starts at TSMC due to HBM4 shortage, reduced CoWoS needs
H2 2026
AMD MI455X initial shipments
432GB HBM4 — but needs only 9.8 Gbps/pin (JEDEC standard), may dodge the top-bin shortage hitting Rubin
H2 2026
Samsung + SK Hynix named exclusive Rubin HBM4 suppliers
Micron excluded. Only two suppliers for the hardest-to-make memory bin
Q4 26/Q1 27?
Rubin volume (revised)
First time AMD and NVIDIA next-gen GPUs could overlap in volume

反转令人震惊。1月份,黄仁勋在CES舞台上宣布Vera Rubin”已全面投产”。3月初,有报道称NVIDIA实际上正在将H200的TSMC产能转移到Rubin以加速其发布。

几周后却相反:晶圆投片削减,出货延期一个季度。

芯片没问题。内存还不存在。这就是瓶颈。

为什么HBM4是卡脖子环节

Vera Rubin每颗GPU需要288GB HBM4,带宽20.5 TB/s。HBM4是新一代内存,需要新的制造工艺,而产能爬坡落后于计划。

NVIDIA已指定三星和SK Hynix为Vera Rubin的独家HBM4供应商——美光被排除在外。这意味着全球只有两家工厂在制造NVIDIA需要的内存,而且都仍在爬坡阶段。

SK Hynix正在向NVIDIA交付HBM4”最终样品”——这意味着仍在认证阶段,而非量产。三星将HBM4年底良率目标提高到85%——意味着当前良率远低于此。

这正是SemiAnalysis CEO Dylan Patel在Dwarkesh播客中的预言:AI算力的终极瓶颈不是电力或数据中心——而是半导体制造。现在它直接影响了NVIDIA的产品时间线。


谁赢了,谁输了

影响评分卡
Google TPUs
Winner
Don't need HBM4. Already selling to Anthropic (1M chips) and Meta. Only major alternative not bottlenecked by memory.
AMD MI455X
Potential winner
Needs HBM4 but at 9.8 Gbps/pin (JEDEC standard) vs Rubin's 11 Gbps (top bin only). Lower-bin HBM4 rejects from NVIDIA qualify for AMD. AMD VP says H2 2026 'right on target.' Software gap closing.
OpenAI / Anthropic
Squeezed
Committed to 5GW+ on Rubin. Must overpay for Blackwell or scramble for alternatives. Anthropic already paying $2.40/hr spot for H100s.
NVIDIA
Delayed revenue
$95.2B in supply commitments assumed smooth HBM4 ramp. Cash conversion cycle extends. But demand isn't going anywhere — it's deferred, not lost.
SK Hynix / Samsung
Pricing power
Named exclusive HBM4 suppliers for Rubin (Micron excluded). Scarcity gives leverage. SK Hynix paying ASML 15-20% premiums. Samsung targets 85% yield by year-end.

Google:最大赢家

Google的TPU不使用HBM4。所有依赖HBM4的芯片都面临供应制约,而Google TPU完全免疫——而且正如下文分析,这些制约并非对所有人同等严重。Google已向Anthropic出售约100万颗TPU v7(Ironwood)芯片。Meta签署了数十亿美元的协议。

AMD:没人在谈论的分级优势

Rubin延期给了AMD缩小差距的窗口。MI455X计划H2 2026初始出货——AMD副总裁Anush Elangovan态度坚定:MI455X”完全按计划在2H 2026出货”,并直斥延期报道为”胡说八道”。如果Rubin滑到Q4 2026或Q1 2027而MI455X按时出货,两款芯片可能首次在量产上重叠——AMD在数据中心GPU上一直落后整整一代。

显而易见的假设是:MI455X也需要432GB HBM4,所以AMD面临同样的短缺。但仔细看看规格。

AMD MI455X需要19.6 TB/s带宽。在HBM4的2048位接口上,这对应约9.8 Gbps/pin——在JEDEC标准范围(6.4-9.6 Gbps)内或仅略高于此。标准工艺良率可以达到。

NVIDIA Rubin需要22 TB/s。这要求~11 Gbps/pin——远超JEDEC规范。只有最高速度分级的芯片才能合格。

这意味着同一条生产线生产的HBM4分为两个等级:

  • 高速级(11+ Gbps) → 合格供应NVIDIA Rubin
  • 标准级(9-10 Gbps) → NVIDIA的废品,但完全合格供应AMD MI455X

如果高速级良率不佳(三星年底85%的良率目标暗示确实如此),NVIDIA供不应求,而AMD从NVIDIA无法使用的芯片中获得充足供应。

讽刺之处深刻。NVIDIA将带宽规格从13提升到22 TB/s,专门为了超越AMD的19.6 TB/s。这一修订迫使所有三家内存供应商重新设计,延迟了量产,并可能创造了一种分级动态——AMD(NVIDIA试图击败的公司)按时获得内存,而NVIDIA在等待尚未大量存在的高速级部件。

NVIDIA选择赢在规格上。AMD可能通过要求更少而率先出货。

在潜在硬件时机优势之上,AMD还获得了软件时间。每延期一个季度,AMD的推理栈就多一个季度的改进。MoRI库在30天内实现了1.5倍推理提升。SGLang v0.5.6已内置AMD优化。当你的下一代硬件迟到时,NVIDIA的软件护城河就在贬值。

AI实验室:被挤压

OpenAI承诺在Vera Rubin上部署5GW。Anthropic年底需要5+GW,已经在为H100支付高达**$2.40/小时**的现货合同。每延期一个季度,这些实验室要么多付钱用现有硬件,要么转向替代方案。


Burry的关联

这正是Michael Burry从10-K中发出的警告。NVIDIA 952亿美元的供应承诺假设HBM4顺利爬坡。现金转换周期在延长,因为NVIDIA向一条无法按原始时间表交付的供应链投入了资本。

但Burry论点忽略的细微之处是:需求不会消失。这是延迟的收入,不是失去的收入。问题在于延期是否为替代方案——Google TPU、AMD MI455X、AWS Trainium——创造了足够的建立窗口。

最重要的问题:NVIDIA是否会延长GB300 Blackwell Ultra的生产来填补空缺?GB300使用HBM3E,供应充足。如果NVIDIA让Blackwell保持高速运转同时等Rubin爬坡,收入影响最小化。


更大的图景

放大来看,Rubin延期讲述了一个故事:AI产业的扩张速度超过了物理世界制造芯片的能力。

ASML每年能制造约70台EUV工具。SK Hynix一年在设备上花费133亿美元。NVIDIA有1170亿美元的总供应承诺。超大规模云厂商正在部署6000亿美元的资本支出。

仍然不够。内存没准备好。依赖它的芯片延期了。依赖芯片的AI实验室在争相抢夺资源。

下次有人告诉你AI发展太快时,请记住:NVIDIA十年来最受期待的芯片迟到了,因为我们堆叠内存的速度不够快。

世界正在以物理极限的速度建设。只是还不够快。


引用来源: [ece81337], [4b2851b6], [2125a02c], [2ad6f7c4], [10436cf6], [d189a662], [ab46b3ae], [6aee3692], [71c13b0a], [d2fce189], [c1a78ed1], [c4eb94ff], [0c2adc91], [def96f05], [0472dbc8], [711299fc], [33b87cfe], [8dab6865], [2594a15b]

获取信号,而非噪音

最新分析直达收件箱。无垃圾邮件,随时退订。