在AI技术应用突飞猛进的同时,巨大的能源消耗正成为业界关注的焦点。近日,芯片设计巨头Arm公司首席执行官Rene Haas在接受媒体采访时也强调了AI应用带来的能耗压力与挑战。他指出,如果不提高效率,到2030年人工智能数据中心的耗电量可能高达美国电力需求的20%-25%。而如今,这一比例可能还只有4%或更少。
在博世互联世界2024大会上,特斯拉CEO埃隆·马斯克也提出了类似的观点:到了2025年,困扰AI行业的可能不再是芯片的短缺,而是电力供应的紧张。
荷兰国家银行数据专家Alex de Vries最近也预估,OpenAI旗下聊天机器人ChatGPT每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。
目前来看,人工智能(AI)面临的能耗挑战主要源于其训练和运行过程中对大量计算资源和能源的依赖。随着AI技术的快速发展,特别是大模型技术的应用,AI系统的能耗问题日益凸显,成为制约其可持续发展的关键因素。
AI系统的能耗问题不仅限于训练阶段,还包括其推理过程中的能源消耗。例如,ChatGPT每天可能消耗564兆瓦时的电力,而预计到2030年,AI将消耗全球电力供应的50%。这一巨大的能源需求引发了广泛的担忧和讨论。
目前来看,解决生成式AI能耗问题的方法主要包括技术创新、优化算法、使用高效能硬件、发展可再生能源和政策支持等方面。其中,在技术创新与优化上,通过优化计算架构和算法,提升能效是降低生成式AI能耗的关键。比如,英特尔近日推出的Gaudi 3 AI加速器及全新至强6处理器,也展示了在生成式AI计算中提高推理速度和能效的可能性。
此外,发展可再生能源也重要的解决途径。加快可再生能源的发展,如光伏和储能技术,可以有效提高能源利用率,减少对传统能源的依赖。这不仅有助于降低生成式AI的能耗,也是实现绿色低碳发展的有效途径。