■
“掌握GPU的人,掌握宇宙。”这一翻译自《沙丘》的经典台词,在当今科技时代得到了新的诠释。
■
分析师们把公司划分为“富有GPU”或“贫穷GPU”,这不仅仅是市场上的一种说法,而是关乎公司在人工智能领域的竞争力。
■
从最新的业绩看,英伟达在GPU领域的巨大市值和增长速度,彰显了GPU在当前科技格局中的关键地位。
“掌握GPU的人,掌握宇宙。”这是对科幻经典《沙丘》中一句著名台词的改编,如今这种说法在当今时代颇为常见。对GPU的获取,特别是那些由领先供应商英伟达制造的GPU对于任何希望在人工智能(AI)领域被认真对待的公司来说至关重要。
分析师们谈论着公司是“富有GPU”还是“贫穷GPU”,这取决于它们拥有多少这样的芯片。科技老板们吹嘘着他们庞大的库存。英伟达的主导地位使其市值超过了2万亿美元。预计在5月22日公布的最新业绩中,其年度收入增长率将超过200%。
GPU承担着训练和运行大型AI模型所需的计算重任。然而,奇怪的是,这并不是它们设计的初衷。GPU的缩写代表“图形处理单元”,因为这样的芯片最初是为处理视频游戏图形而设计的。但幸运的是,它们被重新用于AI工作负载,这对Nvidia是一个意外的发现。
也许从零开始设计专用的AI芯片会更好?这正是许多公司,无论大小,现在正在努力做的事情,以期推翻英伟达的统治地位。
专用的AI芯片承诺可以更快、更便宜或两者兼而有之地构建和运行AI模型。任何能够对现任冠军构成可信威胁的公司都将有大量的顾客,他们不喜欢其高昂的价格和有限的供应。
普通的处理芯片,就像那些在笔记本电脑和台式电脑内部找到的一样,基本上是为了依次执行一件事情而设计的。相比之下,GPU包含数千个处理引擎或“核心”,使它们能够同时运行成千上万个相同简单任务(比如绘制场景的一部分)的版本。
类似地,运行AI模型也涉及并行运行大量相同任务的副本。想出如何重写AI代码以在GPU上运行是引发当前AI繁荣的因素之一。
然而,GPU也有其局限性,特别是在数据在其上进行快速传输的速度方面。现代AI模型运行在大量互连的GPU和存储芯片上。快速在它们之间传输数据对性能至关重要。当训练非常庞大的AI模型时,一些GPU核心可能会在等待数据的过程中有多达一半的时间处于空闲状态。
总部位于加利福尼亚州圣尼瓦尔的初创公司Cerebras的老板安德鲁·费尔德曼将其比作感恩节前一天杂货店的交通拥堵。“每个人都在排队,停车场堵塞,通道堵塞,收银处堵塞。这就是GPU正在发生的情况。”
Cerebras的解决方案是将90万个核心,加上大量存储器,集成到单个巨大的芯片上,以减少连接多个芯片和在它们之间传输数据的复杂性。据Cerebras称,其cs-3芯片是世界上最大的芯片,比率高达50。
费尔德曼先生说:“我们的芯片大小相当于一张餐盘——一个GPU的大小相当于一张邮票。”Cerebras声称,核心之间的芯片内连接速度比独立GPU之间的连接速度快数百倍,而其方法与Nvidia最强大的GPU产品相比,能源消耗降低了一半以上,达到了相同性能水平。
位于加利福尼亚州山景城的初创公司Groq采取了一种不同的方法。其名为语言处理单元(LPUs)的AI芯片被优化用于快速运行大型语言模型(LLMs)。除了包含自己的存储器外,这些芯片还充当路由器,将数据在互连的LPUs之间传递。
聪明的路由软件消除了延迟的变化,或者等待数据的时间,使整个系统能够同步运行。这极大地提高了效率,因此速度也得到了提升:Groq表示其LPU可以比现有系统快十倍运行大型LLMs。
还有另一种方法是加利福尼亚州的MatX采取的方法。该公司的联合创始人之一Reiner Pope表示,GPU包含的特性和电路为图形提供了灵活性,但对于LLMs并不需要。他们公司正在研发的类似GPU的芯片摆脱了这种不必要的繁琐,通过更好地做更少的事情来提高性能。
这一领域的其他初创公司包括以色列的Hailo,该公司于四月获得了1.2亿美元的资金;总部位于多伦多的Taalas;美国公司Tenstorrent使用开源RISC-V架构构建AI芯片;以及英国公司Graphcore,虽然是该领域的早期参与者,但未能获得关注,有传言称该公司即将出售给日本企业软银。
大型科技公司也在建造自己的AI芯片。
谷歌开发了自己的“张量处理单元”(TPUs),并将其作为云计算服务提供。(它于5月14日发布了最新版本的TPU,称为Trillium。)
亚马逊、Meta和微软也为基于云的AI制造了定制芯片;OpenAI正计划这样做。而AMD和英特尔两家大型现有芯片制造商也在努力竞争Nvidia,他们制造了类似GPU的芯片。
伟大是否是短暂的经历?
新来者面临的一个危险是他们的专业化努力可能走得太远。斯坦福大学的计算机科学家克里斯托斯·科兹拉基斯表示,设计一款芯片通常需要两到三年的时间,鉴于AI模型的快速发展,“这是一段非常长的时间”。
他说,机会在于初创公司最终可能拥有一款比Nvidia的非专业GPU更擅长运行未来模型的芯片。风险在于他们专门从事了错误的事情。
曾在谷歌工作过的Pope先生表示,他的公司对于当前主导的“变压器”架构有“一定的预见性”。他说,如果出现新的方法——“状态空间模型”是最新的方法——他的芯片足够灵活,可以适应。
费尔德曼先生表示,所有现代AI仍然只是“稀疏线性代数”在底层运行,而Cerebras的芯片可以非常快速地执行这种操作。
另一个挑战是Nvidia的GPU编程软件层CUDA已经成为业界事实标准,尽管众所周知它使用起来很麻烦。“软件为王,”斯坦福大学的科兹拉基斯先生表示,而Nvidia在许多年内已经建立起了其软件生态系统,具有显著优势。
只有在初创AI芯片公司能够说服程序员调整其代码以在新芯片上运行时,他们才能成功。他们提供软件工具包来实现这一点,并与主要的机器学习框架兼容。但是在新架构上调整软件以优化性能是一项困难而复杂的工作,这也是英伟达难以撼动的另一个原因。
对于AI芯片及其周围构建的系统而言,最大的客户包括模型构建者(如OpenAI、Anthropic和Mistral)和科技巨头(如亚马逊、Meta、微软和谷歌)。
对于这类公司来说,收购一家AI芯片初创公司并将其技术保留给自己,以期在竞争中取得胜利,可能是有道理的。与其试图与英伟达竞争,芯片初创公司可以将自己定位为收购目标。
Pope先生表示,MatX正瞄准市场的“顶级”,这表明他们希望将其芯片,即使不是整个公司,出售给像OpenAI、谷歌或Anthropic这样AI模型最先进的公司。“我们会对多种退出方式感到满意,”他说,“但我们认为作为一个独立的公司,这里有一个可持续的业务。”这还有待观察。
据说Cerebras正在准备进行首次公开发行。到目前为止,这些初创公司中没有一家对Nvidia的主导地位造成了一丁点的影响。但有很多人希望其中的一家能够成功。(The Economist)