2023年,生成式AI在全球科技圈掀起了投资风潮。然而,在AI这一场科技豪赌盛宴上,巨大的能耗问题也成为科技圈关注的焦点。
近日,荷兰国家银行数据专家Alex de Vries估计,OpenAI旗下聊天机器人ChatGPT每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。
而特斯拉CEO马斯克最近在接受媒体采访时也预言,AI行业将在2025年迎来电力短缺,届时将“没有足够的电力来运行所有的芯片”。
OpenAI创始人Sam Altman在世界经济论坛上也表示:“我们需要的能源确实比我们之前想象的要多得多。”
Bloomberg Intelligence最新报告显示,到2032年,生成式AI市场规模有望增长至1.3万亿美元,年复合增速达43%。这就意味着未来生成式AI带来的能耗的问题也愈加严峻。
那么,一方面是巨大的市场利好趋势,另一方面则是巨大的能耗问题,这明显与追求可持续发展和绿色环保的目标背道而驰。未来,要解决这一矛盾关系需要业界从“开源”和“节流”两个词寻求突破。
AI能源消耗巨大
前几年,加密货币风靡一时,其“挖矿”设备带来的能耗问题也曾引发争论。但长远来看,加密货币的能耗问题远不及生成式AI带来的压力。
当前,微软、谷歌和ChatGPT研发企业OpenAl都要使用云计算,而云计算依赖于全球海量数据中心服务器内数以千计的芯片来训练被称为模型的AI算法,分析数据以帮助这些算法学习如何执行任务。
尽管生成式AI未来将彻底改变价值数万亿美元的从零售到航空航天等行业的运营模式,比如新冠病毒的分子信息建模、石油勘探中的环境模拟、航空航天导航等,但无时无刻出现的算力需求都将耗费大量的电力。这势必将进一步导致更多大量温室气体的排放,加剧全球变暖的问题。3月28-29日,由Aspencore举办的国际集成电路展览会暨研讨会(IIC Shanghai)将在上海召开。作为IIC Shanghai的重要论坛——2024国际绿色能源生态发展峰会将邀请国内外行业企业,探讨生成式AI带来新机遇、新挑战,同时也将分析如何利用半导体新技术解决能源消耗问题、实现行业可持续发展以及碳中和目标。欢迎参会!
2月29日,马斯克在博世互联世界2024大会上表示,仅仅一年多前,业界还在为芯片短缺苦恼,但明年可能面临全球电力供应紧张局面,可能导致无法满足所有芯片的生产需求。
马斯克直言,尽管目前人工智能的发展速度前所未见,算力似乎每6个月就会增加10倍,“但这种速度显然不会一直持续下去,否则宇宙都容不下它们了”。他也表示,算力增长目前已经面临瓶颈,除了芯片短缺之外,就是能耗这一问题。
马斯克还曾表示,美国需要将目前的发电量提高至少三倍才能维持电力供需平衡,否则不仅无法满足人工智能等快速增长的用电需求,还将导致全国性“电荒”。
根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。
按照当前的趋势,de Vries也预测,到2027年整个AI行业每年将消耗85-134太瓦时(1太瓦时=10亿千瓦时)的电力。
来自《焦耳》杂志上的一项研究也表明,到2027年,生成式人工智能所消耗的能源能为荷兰这样的国家提供一年的电力,相当于约85-134太瓦时(TWh)。参数更多、功能更为强大的人工智能将给人类的能源供应产生巨大压力。这意味着在未来几年内,大型人工智能系统要实现向全面智能时代过渡,甚至建成元宇宙,能源消耗将不可估量。
除了能耗问题之外,生成式AI还耗费着巨量的水资源。根据企业的环境报告,谷歌和微软研发他们的Bard和必应大语言模型时,两家公司的用水量一年内分别增加了20%和34%。全球生成式人工智能对水资源的需求到2027年可能达到英国的一半水平。
能源赛道迎来新的发展机遇
未来,人工智能的发展将进一步与能源紧密相连。这也让越来越多的人开始意识到,能源正成为大型人工智能服务器群不断迭代升级的重要发展瓶颈。
英伟达创始人兼CEO黄仁勋就曾强调,不应仅仅关注算力,而是需要更全面地考虑能源消耗问题。据悉,2024年,英伟达的高端H100芯片预计将消耗相当于一个小国家全年的电力。
OpenAl的创始人山姆·奥特曼也提出了类似的看法,“未来AI的技术取决于能源,我们需要更多的光伏和储能。我们需要的是核聚变,或者是大规模的、成本极低的太阳能加储能系统,规模之大前所未有。”
根据市场研究机构CB Insights发布的关于生成式AI的报告《2024 generative AI predictions》,为应对不断增长的能源需求,数据中心开始转向可再生能源。核能,尤其是小型模块化反应堆(SMR)和核聚变技术,被视为AI运营的可持续能源解决方案。同时,为了应对高功率AI数据中心的散热挑战,液冷技术正在成为行业的新宠。
2024年度耗电量比较(来源:CB Insights)
作为生成式AI研究最为积极的国家,美国在能源消耗这一问题上,可以说是机遇与挑战同在。如今,清洁能源、AI、数据中心、电动汽车、挖矿等多种产业的增长,在刺激美国经济增长的同时,也引发了电力需求危机。
有分析师指出,美国70%的电网接入和输配电设施已老化,某些地区电网传输线路不足。因此,美国电网需要大规模升级,如果不采取行动,到2030年美国将面临一道难以逾越的国内供应缺口。
因此,美国马萨诸塞州参议员埃德·马基(Ed Markey)等美国民主党人在今年2月提出了《2024年人工智能环境影响法案》。该法案希望建立评估人工智能对环境影响的标准,并为人工智能开发者和运营商创建一个自愿报告框架。这也说明在政府层面已经开始重视生成式AI的能耗问题。
因此,随着高耗电的数据中心数量激增,太阳能光伏、水力发电、风能等清洁、可再生能源将成为投资的热点,包括核能在内的能源也将被重视,比如推动可控核聚变研究和开发。
优化算法和模型架构是可行路径
当前,能源效率是现代芯片设计中必须考虑的重点之一,AI芯片也不例外。能耗的降低既有助于提高芯片的发展速度,又有利于减少资源消耗。其中,通过优化算法和模型架构以减少AI计算能耗是重要的技术路径之一。
一方面,通过对算法进行剪枝、量化和分解等优化方法,可以减少计算量和存储需求,从而提高芯片的计算效率;另一方面,通过建立更高效的模型,并重新考虑如何设计和使用数据中心,以及采用先进的工艺技术和电源管理策略,优化电路设计、实现更高效的数据传输和存储、减少内存访问次数等方法,都可以帮助降低芯片的能耗。
比如,法国的大科学(BigScience)项目BLOOM模型,其有可能建立一个与OpenAI的GPT-3相似大小的模型,同时碳足迹要低得多。
然而,提升AI能源效率是一个重要且复杂的工作。除了优先发展节能硬件、算法和数据中心,AI行业还应积极与政府、企业和研究机构合作,建立绿色能源网络,将可再生能源引入电力供应系统。这样可以降低AI行业的能源成本,同时也有利于环保和可持续发展。
此外,政府还应制定相应的政策,鼓励和支持AI行业采用更加环保、高效的能源利用方式。比如,可以给予AI企业税收优惠、补贴等政策支持,鼓励企业采用绿色能源和高效设备。
不过,要规划高效的绿色能源供给网络,以及制定相应的AI政策与标准,需获得关于AI环境影响的准确和完整的数据。目前,这些数据依赖于研究人员基于实验室的研究、数目有限的企业报告以及地方政府发布的数据。而基于生成式AI的全部成本是企业机密,AI企业实际上没有提供真实数据的动力。
因此,政府层面需通过立法来规范与引导AI行业的能源消耗,像美国《2024年人工智能环境影响法案》就是推动AI可持续发展的第一步。