本文来自“服务器行业深度报告:AI和“东数西算”双轮驱动,服务器再起航”。海外自2022年OpenAi发布的ChatGPT将大型语言生成模型和Al推向新高度以来,全球各大科技巨头纷纷拥抱AIGC。大模型通常包含数亿级的参数,需要消耗大量算力。服务器作为算力的发动机,算力需求的增长将迎来Al服务器及服务器需求的快速增长。
Al服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCle插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。
Al芯片是Al服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,Al芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。
服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NAND Flash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。
从服务器和Al服务器构成看,芯片和存储都是核心,决定着Al服务器的算力和宽带大小。传统的通用型服务器中,售价10424美金的2xIntel Sapphire Rapids Server,CPU的成本占比约17.7%,内存和硬盘占比超过50%。而Al服务器,售价为268495美金的Nvidia DGXH100中,CPU占比仅1.9%,GPU占比高达72.6%。内存价值量提升,但占比下降至4.2%左右。
下载链接:
服务器行业深度报告:AI和“东数西算”双轮驱动,服务器再起航
AI时代的3D内容生产工具
复盘与未来推演(AI应用):追本溯源之后,我们相信什么?
深度研究:量子计算:人工智能与新质生产力的“未来引擎”
多模态,AI大模型新一轮革命
2024前沿人工智能安全的最佳实践
人工智能大模型工业应用准确性测评
2024 AI智算产业趋势展望分析报告
边缘智能:铺平人工智能的“最后一公里”
泛半导体产业黑灯工厂发展研究洞察白皮书
PCIe标准的演进和测试要求
《英伟达GTC 2024技术汇总》
1、英伟达GTC 2024主题演讲:见证AI的变革时刻 2、展望GTC变革,共享AI盛宴 3、英伟达GTC专题:新一代GPU、具身智能和AI应用
英伟达GTC专题:新一代GPU、具身智能和AI应用(精华)
2024年策略:AI鼎新,与时偕行
人工智能生成图像的危害分析与网络真实性保护(2024)
家庭大脑白皮书(2024):大模型时代智慧家庭应用新范式
《半导体行业深度报告合集(2024)》
《70+篇半导体行业“研究框架”合集》
本号资料全部上传至知识星球,更多内容请登录智能计算芯知识(知识星球)星球下载全部资料。
免责申明:本号聚焦相关技术分享,内容观点不代表本号立场,可追溯内容均注明来源,发布文章若存在版权等问题,请留言联系删除,谢谢。
温馨提示:
请搜索“AI_Architect”或“扫码”关注公众号实时掌握深度技术分享,点击“阅读原文”获取更多原创技术干货。