台积电董事长刘德音博士近期在公开演讲中表示, AI未来需要更多的算力和更低功耗表现的增势,他预计今年NVIDIA有望成为全球最大的半导体公司。
■ NVIDIA Q3营收已登顶全球半导体公司,超Intel 141.6亿美元
近期各大半导体原厂的财报数据显示,今年Q3 NVIDIA的营收为181.2亿美元,首度取得全球半导体营收之冠,超过了该季台积电的172.78亿美元,并同时超过了Intel的141.6亿美元与三星的125.2亿美元。
图:全球顶尖半导体公司市值(单位:十亿美元)
上图可以看到,NVIDIA以逾1.2万亿美元的市值位居第一,同为AI芯片领域的领跑者,AMD以1960亿美元的市值位居第六,Intel1870亿美元的市值紧跟着位居第七。
■ 24年NVIDIA将占AI芯片85%的市场份额
分析师Raymond James和Srini Pajjuri认为,明年在AI芯片市场,NVIDIA将占85%的市场份额。在一众竞争对手中,如AMD、Intel,谷歌和微软,Raymond James认为,NVIDIA的GPU在通用性、实用性方面案更好。
Srini Pajjuri补充说,NVIDIA B100芯片在2024下半年才能量产,因此一些客户可能因等待B100而暂停支出,尽管AMD的M1300和Intel的Gaudi 3芯片也在明年推出。
独立分析师Richard Windsor认为,NVIDIA的生成式AI算法训练在一众竞争者中也处于领头羊的位置,只因其在过去的20年里辛苦搭建了CUDA软件平台。不仅如此,NVIDIA还有端到端的平台,包括Omniverse、NVIDIA AI等。
■ NVIDIA持续扩展高阶AI芯片产品,提升HBM规格
NVIDIA在2023年推出的高阶AI芯片(采用HBM)有A100/A800和H100/H800。2024年,NVIDIA将产品组合更细致化的分类,除了上述型号外,还将推出搭载6颗HBM3e的H200和8颗HBM3e的B100,并同步整合NVIDIA自家基于ARM架构的 CPU与GPU,推出了GH200和GB200。
图:2021年-2025年NVIDIA推出的高阶GPU进程
■ AMD推出MI300系列应战
NVIDIA的竞争对手没有示弱,同时期,AMD在2024年出货的主流产品为MI300系列,采用HBM3;下一代MI350则采用HBM3e,预计2024下半年开始进行HBM验证,届时看到较为明显的产品放量时间在2025年Q1。
MI300被AMD寄予厚望,为其 “有史以来最快达成10亿美元销售额的产品”,据AMD官方信息,MI300在部分技术指标上相比H100更具优势,比如MI300提供的HBM密度是H100的2.4倍,HBM带宽是H100的1.6倍。H100一经发布就迎上“百模大战”的风口,成为了被各方力量争夺的宝贵算力资源。
但直到H200横空出世, H200芯片搭载HBM3e,相当于H100 Hopper GPU的升级版本,从HBM3跳到HBM3e,H200的内存容量增加76%,内存带宽提升了43%。有了H200的NVIDIA优势将进一步扩大,在H200发布会结束后,AMD收盘股价下跌1.52%。NVIDIA称H200将在2024年Q2开始交付,留给AMD抢跑的时间并不多。
■ Intel推进Gaudi AI加速器战略
Intel正在推进GPU和Gaudi AI加速器战略,2022下半年推出的Gaudi 2采用6颗HBM2e,2024年中预期在新型号Gaudi 3持续采取HBM2e,但将用量升级至8颗。
■ NVIDIA新品在高阶AI芯片市场具有最大优势
高阶AI服务器GPU搭载HBM芯片已成主流,总结而言,从2024年推出的新品来看,NVIDIA B100搭载8颗HBM3e,规格高于Intel Gaudi 3的8颗HBM2e,AMD的MI350尚不明确HBM3e用量,但综合其他数据,TrendForce认为,NVIDIA在HBM规格、产品准备度和时间轴上,有望持续以领先的GPU规格,在AI芯片竞局取得领先。
■ HBM遭AI大厂疯抢
今年6月开始,SK 海力士,三星和美光就开启了HBM增产步伐。三星甚至投资一万亿韩元,今年下半年开始量产HBM3;SK 海力士则决定用最新的尖端 10nm级第五代 (1b) 技术大幅提高24年的产量,大部分增量将由 HBM3e 填充。
HBM原厂为了满足需求量产,AI芯片厂商如NVIDIA、AMD、亚马逊等巨头早在今年上半年就已经在排队抢样品了。为了更妥善且健全的供应链管理,NVIDIA规划加入更多的HBM供应商,按各原厂的HBM产品验证结果来决定其采购权重分配。
■ 三大存储原厂均已提交HBM3e样品
从HBM原厂供应情况来看,2023年HBM的市场份额,三星和 SK 海力士预计分别占据46% 和 49%,美光则占据其余市场份额。
下图所示,三星的HBM3(24GB)预计在今年12月在NVIDIA完成验证。按时间轴排列,美光已于今年7月底提供NVIDIA HBM3e(24GB)样品、SK海力士于8月中提供HBM3e(24GB)样品、三星则于10月初提供HBM3e(24GB)样品。
图:三大原厂HBM解决方案开发进度(星标-NVIDIA样品,空心圆-样品,实心圆-量产)
由于HBM验证过程繁琐,预计耗时两个季度,因此,TrendForce预期最快在2023年底可取得部分HBM3e的验证结果,而三大原厂均预计于2024年Q1完成验证。
值得注意的是,各原厂的HBM3e验证结果,也将决定最终NVIDIA 2024年在HBM供应商的采购权重分配。目前验证皆尚未完成,因此2024年HBM整体采购量仍有待观察。
■ 各大AI厂商要求规格和效能优化推动HBM4开始客制化进程
各大AI芯片厂商在未来的产品应用上,规格和效能将更优化。在此带动下,将首次看到HBM最底层的Logic die采用12nm制程,使得单颗HBM产品需结合晶圆代工与存储器厂的合作模式。
此外,各AI厂商对运算效果要求提升,HBM4在堆栈的层数上,除了现有的12层,将再往16层发展。预计HBM4 12hi产品将于2026年推出,16hi产品将于2027年问世,这也将带动全新堆栈方式混合键合的需求。
针对HBM4,各AI厂商开始启动客制化要求,比如HBM可能不仅排列在SoC主芯片旁边,也可能转向堆栈在SoC主芯片之上。虽然目前这些方案还在可行性研究中,但未来HBM产业的发展,在定价及设计上,将更摆脱大宗DRAM的框架,转为客制化的发展模式。
■ 目前国产GPU企业近百家,采购国产AI芯片占总比10%
据悉,目前国内从事GPU、已商用化且经营较好的企业仅景嘉微一家,其余多处于持平或亏损的状态。但好消息是,国产GPU企业数量持续增长,据天眼查数据显示,目前相关企业已有近百家,GPU发布产品数量也在持续增长。
国产AI芯片的应用方面,IDC数据显示,2023年上半年中国AI服务器共使用50万块本地采购或开发的AI加速器芯片,占中国整个服务器市场的10%。
■ 性能方面有待提升
从性能方面,钛媒体App了解到,经测试,华为昇腾910B AI 芯片(多为A100 芯片的国产替代)仅能达到NVIDIA A100的60-70%,集群的模型训练难以为继。同时,910B在算力功耗、发热等方面远高于A100/H100系列产品,且无法兼容CUDA,很难完全满足长期智算中心的模型训练需求。
总体来看,国产替代的市场前景非常可观,随着研发投入力度的加大,该领域的景嘉微、沐曦、壁仞科技和摩尔线程等一众国内GPU企业,或许很快会像华为一样冲破封锁,紧握住市场机遇。
信息及配图主要来源:TrendForce集邦咨询,极客网,创事记,BT财经
版权归属:作者/译者/原载
声明:如涉及版权问题,请与我们联系删除