广告

AI训练效率太低?碳排放相当于5辆汽车从制造到报废的总量

2020-12-31 17:31:30 cnBeta 阅读:
在投入实际应用之前,AI 模型需要汲取大量的数据、知道其学会如何理解用户的输入。遗憾的是,与人类的学习方式相比,这种训练的效率实在太过低下。训练一款 AI 模型所产生的碳排放,甚至与制造和驾驶五辆汽车到报废的总量相当。
广告

本月早些时候,谷歌迫使某位研究人员撤回了一篇论文,其中提到了谷歌当前在搜索和其它文本分析产品中使用的语言处理人工智能所存在的风险。此外,据某些估计,训练一款 AI 模型所产生的碳排放,甚至与制造和驾驶五辆汽车到报废的总量相当。究其原因,还是当前的 AI 训练效率太过低下。

教机器人走路难,教 AI 懂人话更难。

为了深入了解 AI 训练与传统数据中心计算有何不同,ArsTechnica 特地发表了一篇来自 AI 研究与模型开发专业人员的分析文章。

据悉,传统的数据中心任务,主要涉及视频流、电子邮件、以及社交媒体的处理。与之相比的是,AI 训练需要耗费更多的计算量。

在投入实际应用之前,AI 模型需要汲取大量的数据、知道其学会如何理解用户的输入。遗憾的是,与人类的学习方式相比,这种训练的效率实在太过低下。

现代 AI 需要借助人工神经网络来模拟人脑神经元的数学运算,神经元之间的连接强度,亦是该网络的一个重要参数(权重)。

为了学习如何理解语言,网络需要从随机权重开始并进行调整,知道输出让人感到满意的“正确答案”。

BERT 研究配图(来自:PDF)

训练语言网络的一种常见方法,是从维基百科和新闻媒体等网站提取大量文本,遮盖其中的部分单次,然后让 AI 模型尝试猜出正确的答案。

虽然一开始很容易乱成一锅粥,但随着投喂数据量的不断增加、以及学习的深入,神经网络的连接权重和数据提取模式也会不断作出调整,最终带来准确率的逐渐提升。

以最近的某个双向编码器交涉(BERT)模型为例,其学习了英语书籍和维基百科的 33 亿字内容,然后通过 40 次的反复锤炼,才勉强达到了可用的水平。

作为对比,一名才五岁的人类小孩,尽管其听取的词量不到 BERT 的 1/3000,都不至于像 AI 模型这般需要费心费力地去教。

训练前模型结构的差异

显然,与其盲目地让机器和 AI 算法通过不断重复学习、来学会如何像人类一样思考,不如为语言模型选择一个更合适的训练架构,从而大幅削减其构建成本。

有鉴于此,一些研究人员想到了一种更加合适的方案 —— 考虑学习期间需要动用多少个神经元、神经元之间有多少个连接、参数应以多快的速度发生改变等。

随着尝试的组合越来越多,语言网络的精度提升机会也变得越来越大。相比之下,人脑并不需要费力地去寻得最佳结构,因为祖先早在进化过程中就替我们承受了这些苦难。

近年来,企业和学术界在不断搅动 AI 领域的竞争,毕竟即使 1% 的准度提升,也会带来相当显著的优势 —— 尤其是机器翻译等难度相对较高的任务处理上。

然而为了抢占宣传上的制高点,研究人员可能需要对模型展开数千次的训练、每次动用不同的结构方案,才能找到提升哪怕 1% 的最佳实现,即便这么做也会造成能源的大量浪费。

不同任务上的微调

通过测量训练期间使用的通用硬件功耗,马萨诸塞州大学阿默斯特分校的研究人员们,已经估算出了各种 AI 语言模型的能源开销。

结果发现,训练 BERT 所产生的碳足迹,已相当于搭乘飞机往返纽约和旧金山。如果动用不同的结构进行检索,总成本更是可以高达 315 名乘客 / 甚至一架波音 747 的碳足迹。

从业界发展的趋势来看,与 BERT 类似的 GPT-2 语言模型的开销更是有过之而无不及。其网络中的权重已达 15 亿,更别提精度更高的 GPT-3 了(权重 1750 亿)。

Google's DeepMind AI Just Taught Itself To Walk(via)

研究人员指出,许多人已经意识到,即便最终只有一小部分网络能够发挥最大的作用,但构建出一套更大规模的网络,还是有助于提升整体结果的准确性。

遗憾的是,与生物大脑的神经元效率相比,计算机实在是差了太多个数量级。为了减少碳足迹,科技企业或许会转向更绿色的能源、以及借助更加专用的 AI 模型训练硬件。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • Omdia :2024年生成式AI软件市场将增长124% 许多拥有大型语言模型(LLM)的供应商的收入运行率表明,2024 年的收入增长将达到三位数……
  • IDC首测8款最热门移动端大模型,3款获好评 本次报告的测评涵盖了市面上最热门的八个Chatbot App:kimi智能助手、豆包、海螺AI、天工、通义、文心一言、讯飞星火以及智谱清言(按照公司拼音首字母顺序排列)。
  • Imagination GPU为边缘智能提供高效率的加速 在“2024奕斯伟计算开发者伙伴大会”上,来自Imagination英国总部的专家发表了主题为《用RISC-V CPU + PowerVR GPU迎接边缘生成式AI的到来》的演讲。
  • 面向AI的下一代以太网技术 随着AI应用的广泛普及和数据流量的迅猛增长,传统以太网技术在延迟、带宽、拥塞控制和高性能可扩展方面天然局限,导致其难以应对AI网络的复杂需求。
  • 智能手机疲软,但超薄柔性玻璃出货量势头正猛 可折叠盖板玻璃必须符合以下所有标准:透明、可折叠、坚固、平整和轻薄,这些基本要素缺一不可。
  • 全球折叠屏手机快速增长,中国品牌压制三星 • 得益于西欧、关键亚洲市场和拉丁美洲市场的增长,以及中国品牌的持续领先,全球折叠屏手机出货量在2024年第二季度同比增长了48%。 • 荣耀凭借其在西欧特别强劲的表现,成为最大的贡献者,成为该地区排名第一的品牌。 • 摩托罗拉的Razr 40系列在北美和拉丁美洲表现良好,为其手机厂商的出货量贡献了三位数的同比增长。 • 我们预计,头部中国手机品牌厂商的不断增加将至少在短期内抑制三星Z6系列在第三季度的发布。
  • AI网络物理层底座: 大算力芯片先进封装技术 AI技术的发展极大地推动了对先进封装技术的需求,在高密度,高速度,高带宽这“三高”方面提出了严苛的要求。
  • 智能手表OLED面板超 60%中国制造 智能手表在新冠肺炎疫情后获得了越发广泛的关注,其功能包括语音、健康检查、运动和活动追踪、GPS、通信和个人数据监控。全球智能手表显示面板的出货量已从2022年的2.59亿片增长到2023年的3.51亿片。到 2024年,Omdia预测智能手表显示面板的出货量将达到3.59亿片,其中TFT LCD占63%,OLED占37%。
  • 无处不在的Arm软硬件生态赋能开发者AI创新 随着计算变得愈发复杂,计算效率的重要性更胜以往。
  • 荣耀拿下欧洲横折手机榜第一 既然可以保留几乎相同的旧款手机,或者以更低的价格购买旧款手机,为什么要购买最新款的智能手机呢?但变化已经到来,智能手机品牌厂商正带着其最前沿的创新技术重返欧洲市场……
广告
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了