----追光逐电 光赢未来----
整一年前的2023年10月,工业和信息化部等六部门印发《算力基础设施高质量发展行动计划》,提出到2024年末,我国将建成40个智算中心。如今一年过去,结果如何呢?
中国IDC圈根据公开渠道不完全统计,截至2024年8月28日,国内声称以智算中心、智能算力为主要业务的算力中心项目数量已经高达455个,新的项目还在不断增加。而新增项目中,已投产项目占比也不算低,远超40个的数量。(详情请阅读:16家科技大厂89个智算中心及国产化芯片构成分析|算力产业核心内刊No.4)
超额,甚至超数倍的完成了任务目标,对此,行业内的从业者不会感到奇怪——因为很多所谓智算中心,就是从传统数据中心改造而来。或者用“改造”也过于夸大,“改动”才是一个更合适的形容。
智算中心与传统数据中心有没有区别?
一般来说,传统数据中心主要承担数据存储、管理和处理的任务,侧重于数据的简单处理和分析。而智算中心则更侧重于对数据的智能分析、计算和处理,旨在提供更强大的智能计算能力。这种能力差异决定了智算中心需要更高性能的硬件支持,包括更先进的芯片技术和更高效的散热系统。
《算力基础设施高质量发展行动计划》对此也进行了明确的概念解释:智能计算中心指通过使用大规模异构算力资源,包括通用算力(CPU)和智能算力(GPU、FPGA、ASIC等),主要为人工智能应用(如人工智能深度学习模型开发、模型训练和模型推理等场景)提供所需算力、数据和算法的设施。智能计算中心涵盖设施、硬件、软件,并可提供从底层算力到顶层应用使能的全栈能力。
因此,智算中心通常采用更先进的技术架构,如人工智能芯片、高速网络等,以提高计算效率和性能。这些先进技术对散热提出了更高的要求。相比之下,传统数据中心的技术架构较为简单,散热需求也相对较低。
不过,笔者不止从一个从业者口中听到类似“智算中心和数据中心没有区别”或者“做好供电和制冷保障即可”的说法。实际落地中,似乎也是如此。很多IDC服务商“改动”了供电,将6KW、8KW的单机柜供电改为12KW、14KW甚至20KW的供电,就可以装入一台智算服务器,摇身一变成为智算中心。
最终结果就是,当今一服务器一机柜的智算中心比比皆是。
高功率不等于高密度
寸土寸金,这是一直以来对数据中心空间珍贵性的形容。一服务器一机柜,这是曾经财大气粗的金融类数据中心也未曾畅想过的豪气行为。然而在当前智算中心产业中,寸土寸金这一理念似乎过时了。
但实际上,这是无奈而为之。很多传统数据中心的供电、制冷都不足以满足高密度算力的需求,但高功率不等于高密度,这些改用的智算中心为了满足服务器供电强行改动了单机柜供电,却无法同时提升制冷能力,还在采用传统的空调制冷,单机柜单服务器已经是散热极限。
同时,数据中心供电能力同样受限,部分机柜加大了供电功率,就必然要削减其它机柜供电。结果就是不仅仅每个机柜内只有一台服务器,机房内原本的IT空间也会因为供电缺失而处于闲置状态,造成双重浪费。
同时,对于智算中心来说,需要的同样是高算力密度,而非简单的高功率。近日,知名半导体分析机构SemiAnalysis发布了一篇名为《Al NeocloudPlaybook and Anatomy》的GPU云技术的深度报告,详细阐述了AI算力云兴起,对智算中心性能的要求。
比如高功率密度的液冷机柜和高速InfiniBand网络,均来自于AI算力云对算力密度和算力效率的需求。低密度机柜带来的成本浪费,同时反应到机房建设和前端应用中。(详情参考:2.6万字深度|AI算力云(AI Neocloud)将重塑IDC产业格局?)
液冷的成本与环保问题
当然,说起液冷,也要说起老生常谈:成本和环保。
目前从TCO角度看,液冷成本基本上已经可以和风冷持平,甚至在长时间运营中占优。液冷技术不仅能提高散热效率,还可以通过更高效的热交换方式减少电能消耗。此外,液冷技术还能减少因过热导致的服务器故障率,从而降低运维成本。
至于对于氟化液类冷却液环保问题的担忧,当前已经有很多企业在研发可降解的冷却液产品,以改善冷却液的环境友好性。同时,液冷技术能显著降低噪音和热量排放,从根本上符合绿色发展的理念。此外,液冷系统还能实现热能的回收利用,为其他设备或系统提供热源,进一步提高能源利用效率。
液冷只是智算中心建设的一个方面,供电、网络等等均需要进行智算化改造才可能成为一个合格的,真正面向智算时代需求的算力基础设施。随着数字经济的不断发展和算力需求的不断增加,真正符合需求的智算中心建设和运营将是我国未来在算力领域取得竞争优势的关键所在。
申明:感谢原创作者的辛勤付出。本号转载的文章均会在文中注明,若遇到版权问题请联系我们处理。
----与智者为伍 为创新赋能----
联系邮箱:uestcwxd@126.com
QQ:493826566