未来,人工智能的发展和数据存储的进步将会是相辅相成的,数据存储也必将成为人工智能时代重要的一环。当前,AI时代模型算力需求已经远超摩尔定律的速度增长,特别是在深度学习、大模型时代之后,预计5-6个月翻倍。但总体而言,大容量、大带宽等存储芯片将迎来一波人工智能创新应用机遇。

“ChatGPT是人工智能领域的iPhone时刻,也是计算领域有史以来最伟大的技术之一。” 英伟达创始人兼CEO黄仁勋此前这样盛赞ChatGPT。

ChatGPT突然爆火,对大算力芯片提出了更高更多的要求。近日,据韩国经济日报报道,受惠于ChatGPT,三星、SK海力士HBM(high bandwidth memory,高带宽内存)接单量大增。

图片来源:三星半导体

据悉,SK海力士为英伟达供应第三代HBM,搭配英伟达的A100 GPU供ChatGPT使用。另外,英伟达已经将SK海力士的第四代HBM安装至H100,而H100已开始供应ChatGPT服务器所需。同时,韩国业界透露,如今第三代HBM报价飞涨,已是效能最高的DRAM产品的五倍之多,其市场成长率是三星、SK海力士原本预测的两倍以上。

过去的一年,由于低迷的市场表现,各大存储芯片巨头承受着巨大的亏损压力,步入了行业的“寒冬”。然而,ChatGPT等相关AI应用正对惨淡的存储芯片产生积极的影响。那么,未来一年,存储芯片是否迎来新的增量市场机遇?

高性能内存芯片亟待升级

HBM是一种基于3D堆叠工艺的DRAM内存芯片,它就像摩天大厦中的楼层一样可以垂直堆叠。基于这种设计,信息交换的时间将会缩短。这些堆叠的数颗DRAM芯片通过称为“中介层(Interposer)”的超快速互联方式连接至CPU或GPU,最后可将组装好的模块连接至电路板。

HBM的架构  图片来源:AMD

HBM重新调整了内存的功耗效率,能大幅提高数据处理速度,是当下速度最快的DRAM产品,其每瓦带宽比GDDR5高出3倍还多,且HBM比GDDR5节省了94%的表面积。目前,HBM主要被安装在GPU、网络交换及转发设备(如路由器、交换器)、AI加速器、超级计算机及高效能服务器上。

一般而言,HBM作为一种GPU显存存在时,如今虽不算罕见,但因HBM成本高昂,多在高端产品上见到。比如,英伟达面向数据中心的GPU。AMD在消费级GPU上用HBM算是比较少见的例子。

短短两个月,ChatGPT这一超级AI 应用的用户破亿,使全球科技巨头加快了生成式AI应用的布局,也带动了AI应用场景大发展,正掀起新一轮人工智能创新浪潮。

如今,搭载于新兴AI应用的内存芯片亟待升级,主要体现在三大方面:一是ChatGPT这类生成式AI应用需要在海量的训练数据中进行学习,才能实现高质量的生成输出。为了实现关键词识别、图像识别等功能,AI模型需要存储大量的图片和音频信息。

二是面向C端用户的AI应用必须具备快速处理数据的能力,才能向用户实时输出AI计算结果,因此也对内存芯片的数据传输速度提出了更高要求。

三是随着人工智能技术的进一步普及,越来越多的AI应用发生在移动设备和物联网终端设备上,而这些设备大多采用电池供电或充电,对功耗十分敏感。

HBM作为一种带宽远超DDR/GDDR的高速内存,将为大算力芯片提供能力支撑,进而成为相关加速芯片的必然选择,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。

HBM需求量将激增

众所周知,算力的来源就是芯片。而ChatGPT背后的计算集群使用的是AI芯片,其中以英伟达AI芯片为典型代表。

OpenAI曾表示,ChatGPT是与英伟达和微软合作完成的超级AI。微软在自己的云——Azue HPC Cloud中构建了超级计算机集群,将其提供给OpenAI。据悉,该超级计算机拥有285000个CPU(中央处理器)内核和10000多颗AI芯片。除了算力芯片外,AI对话程序在执行计算期间需要大容量、高速的存储支持,预计高性能存储芯片需求也会增长。

因此,未来,为GPU和人工智能加速器提供数据的高性能高带宽内存(HBM) 的需求将会扩大。从长远来看,随着AI聊天机器人服务的扩展,对用于CPU的128GB或更大容量的高性能HBM和高容量服务器DRAM的需求预计会增加。

据悉,从今年年初开始,三星电子和SK海力士的高带宽存储器(HBM)订单就大幅增加。与其他DRAM相比,HBM通过垂直连接多个DRAM,显著提高了数据处理速度,与CPU和GPU协同工作,可以大幅提高服务器的学习和计算性能。

此前,HBM之所以没有得到大范围应用,就在于其需要复杂的生产工艺和高度先进的技术。目前海力士是全球HBM3显存的主力生产商,占据了60-70%的市场。而三星则凭借着强大的研发实力以及资金投入,也在HBM显存市场上颇有建树。

目前,三星已开发出具运算能力的HBM,不但能储存数据、还能运算数据,且已在2022年10月向AMD供应该产品,用于AI加速器。

全球最大的GPU公司英伟达(Nvidia)一直在要求SK海力士提供最新的HBM3内存颗粒。全球排名第一的服务器CPU公司英特尔在全新的第四代至强可扩展处理器当中也推出了配备SK海力士HBM的产品。有业内人士表示,与最高性能的DRAM相比,HBM3目前的价格已经达到其5倍。

据悉,目前已经有超过25000块英伟达计算卡加入到了训练之中。如果所有的互联网企业都在搜索引擎中加入ChatGPT这样的机器人,那么计算卡以及相应的服务器的需求量将会达到50万块,远远超过现在的产能。因此,未来,随着不断接入ChatGPT等生成式AI需求大增,HBM的需求也将呈现出暴增的态势。

HBM成为下一代具有前景的内存芯片

CPU和GPU的性能每年都在大幅提升,但支撑它们的内存半导体性能却一直相对滞后,HBM作为替代方案应运而生。HBM可以消除CPU、GPU和内存之间的性能差距造成的瓶颈,补充了现有DRAM的局限性,被认为是一种具有前景的下一代内存产品。

其中,高带宽、高延迟的特性,决定了HBM是非常适用于作为GPU显存的,也决定了其非常适合HPC高性能计算、AI计算。比如,富士通的超级计算机富岳(Fugaku)内部所用的芯片A64FX,就搭配了HBM2内存。

从上方看HBM  图片来源:富士通

SK海力士也表示,从内存的角度来看,AI聊天机器人需要高性能的DRAM和高性能的计算存储设备,可能加快市场重心转向大容量服务器内存的时间。SK海力士提到,服务器内存从64GB迁移到128GB的速度可能更快。目前,通过与中央处理器(CPU)和图形处理器(GPU)配对,可以明显提高服务器性能的HBM订单正在明显增加。

计算存储是ChatGPT的重要基石。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。未来,人工智能的发展和数据存储的进步将会是相辅相成的,数据存储也必将成为人工智能时代重要的一环,相关企业将迎来机遇。最新的消息表明,相关影响已经开始波及上游产业,三星和海力士目前萎靡的DRAM业务也受到相关订单增加的利好。

以ChatGPT为例,数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。另有业界消息称,ChatGPT已导入了至少1万颗英伟达高端GPU。而花旗集团则预估,ChatGPT将可能促使英伟达相关产品在12个月内销售额达到30亿至110亿美元。

当前,AI时代模型算力需求已经远超摩尔定律的速度增长,特别是在深度学习、大模型时代之后,预计5-6个月翻倍。但总体而言,大容量、大带宽等存储芯片将迎来一波人工智能创新应用机遇。

责编:Jimmy.zhang
阅读全文,请先
您可能感兴趣
新款开发板售价仅为249美元,而上一代40 TOPS开发板售价为499美元,价格仅为上一代的一半。这使得Jetson Orin Nano Super成为“世界上最经济实惠的生成式AI计算机”,特别适合商业AI开发者、爱好者和学生使用。
面对AI时代带来的差异化趋势、软件应用及开发时间长、软硬件协同难、高复杂度高成本等挑战,国产EDA仍需不断探索和创新。
通过机器学习技术,EDA工具可以获取更精确的模型来预测设计中存在的问题,如布线拥塞、信号干扰、热效应等,从而为用户提供更准确快速的指导,避免后期返工。
这一新规则可能会引起美国在世界各地的合作伙伴和盟友的重大担忧,以及一些国家的不满,担心美国会充当单方面仲裁者,决定谁可以获得对AI至关重要的先进芯片。
股东诉讼指控英伟达的首席执行官黄仁勋隐藏了公司记录性收入增长主要由其旗舰产品GeForce GPU的挖矿销售驱动,而非游戏销售,导致投资者对公司的盈利来源和风险敞口产生错误认知。
有鉴于电动汽车、自动驾驶和人工智能业务等未来增长潜力,以及在马斯克在当选总统特朗普政府中的“特殊地位”,多家分析机构认为,马斯克的财富未来还将进一步增长。
目前,智能终端NFC功能的使用频率越来越高,面对新场景新需求,ITMA多家成员单位一起联合推动iTAP(智能无感接近式协议)标准化项目,预计25年上半年发布1.0标准,通过功能测试、兼容性测试,确保新技术产业应用。
中科院微电子所集成电路制造技术重点实验室刘明院士团队提出了一种基于记忆交叉阵列的符号知识表示解决方案,首次实验演示并验证了忆阻神经-模糊硬件系统在无监督、有监督和迁移学习任务中的应用……
C&K Switches EITS系列直角照明轻触开关提供表面贴装 PIP 端子和标准通孔配置,为电信、数据中心和专业音频/视频设备等广泛应用提供创新的多功能解决方案。
投身国产浪潮向上而行,英韧科技再获“中国芯”认可
点击蓝字 关注我们安森美(onsemi)在2024年先后推出两款超强功率半导体模块新贵,IGBT模块系列——SPM31 IPM,QDual 3。值得注意的是,背后都提到采用了最新的FS7技术,主要性能
来源:观察者网12月18日消息,自12月2日美国发布新一轮对华芯片出口禁令以来,不断有知情人士向外媒透露拜登政府在卸任前将采取的下一步动作。美国《纽约时报》12月16日报道称,根据知情人士以及该报查阅
12月18日,珠海京东方晶芯科技举行设备搬入仪式。插播:加入LED显示行业群,请加VX:hangjia188在10月31日,珠海京东方晶芯科技有限公司发布了Mini/Micro LED COB显示产品
万物互联的时代浪潮中,以OLED为代表的新型显示技术,已成为人机交互、智能联结的重要端口。维信诺作为中国OLED赛道的先行者和引领者,凭借自主创新,实现了我国OLED技术的自立自强,成为中国新型显示产
来源:IT之家12 月 18 日消息,LG Display 韩国当地时间今日宣布,已将自行开发的“AI 生产系统”投入到 OLED 生产线的日常运行之中,该系统可提升 LG Display 的 OLE
万物互联的时代浪潮中,以OLED为代表的新型显示技术,已成为人机交互、智能联结的重要端口。维信诺作为中国OLED赛道的先行者和引领者,凭借自主创新,实现了我国OLED技术的自立自强,成为中国新型显示产
阿里资产显示,随着深圳柔宇显示技术有限公司(下称:“柔宇显示”)旗下资产一拍以流拍告终,二拍将于12月24日开拍,起拍价为9.8亿元。拍卖标的包括位于深圳市龙岗区的12套不动产和一批设备类资产,其中不
 “ 担忧似乎为时过早。 ”作者 | RichardSaintvilus编译 | 华尔街大事件由于担心自动驾驶汽车可能取消中介服务,Uber ( NYSE: UBER ) 的股价在短短几周内从 202
又一地,新型储能机会来了?■ 印度:2032储能增长12倍,超60GW据印度国家银行SBI报告,印度准备大幅提升能源存储容量,预计到2032财年将增长12 倍,超60GW左右。这也将超过可再生能源本身
上个月,亿万富翁埃隆·马斯克谈到了年轻一代的生育问题。他强调生育的紧迫性,认为无论面临何种困难,生育后代都是必要的,否则人类可能会在无声中走向消亡。他认为人们对于生育的担忧有些过头,担心经济压力等问题