自从2023年ChatGPT掀起新的AI发展趋势后,算力焦虑一直笼罩在各大AI厂商头上。无论是模型训练推理,还是API调用都需要算力作为支撑,但同时算力成本居高不下,就连ChatGPT打造者——OpenAI也在探索自研AI芯片。
近日,据彭博社报道,OpenAI 首席执行官山姆·奥尔特曼 (Sam Altman) 正在筹集资金建设半导体生产设施,生产用于人工智能 (AI) 应用的处理器 。他相信人工智能技术将在未来几年变得足够普遍以支持他们自己的半导体供应链。报道称,这家合资企业未来可能将与英特尔、台积电和三星代工等公司竞争。
在目前的GPU市场,英伟达一家独大,市场份额超80%。根据2023年10月份发布的一份报告显示,OpenAI 目前在其流行的 Chat GPT 服务中主要使用的是 英伟达(Nvidia)的A100 和 H100 GPU。
这些GPU不仅紧俏还贵,自研AI芯片也意味着能大幅降低算力成本。所以,OpenAI自研芯片完全是情理之中。OpenAI设计自己的人工智能芯片,也将符合亚马逊AWS、谷歌、微软和许多其他超大规模企业自研AI芯片的趋势,除了购买现成的产品外,巨头们更喜欢构建符合自身需求的定制处理器。另一个好处是,自研芯片将可以帮助巨头们摆脱对于英伟达等少数AI芯片供应商的依赖,提升供应链安全。
早在2022年,Altman就曾表达了他对GPU短缺以及在此类平台上运行人工智能软件所需的巨额费用的担忧。因为仅ChatGPT的运营成本就非常巨大。根据Bernstein Research资深分析师Stacy Rasgon分析,ChatGPT每次查询的成本约为0.04美元,如果ChatGPT查询量成长至谷歌搜索规模的十分之一,最初需要部署价值约481亿美元的AI芯片投入运算,每年还需要价值约160亿美元的芯片才能维持运作。
2023年10月,有爆料称,OpenAI正在探索自研AI芯片,同时开始评估潜在收购目标。在其招聘网站上,最近也出现了AI硬件共同开发、评估相关岗位。
据悉,OpenAI拟筹建的合资企业与总部位于阿布扎比的 G42 和软银集团等潜在投资者进行了讨论,旨在解决当前和预期的人工智能相关芯片供应短缺问题。
毫无疑问,该项目的财务和运营规模显然是巨大的。Altman仅与G42的讨论就集中在筹集80亿至100亿美元之间。该项目的全部范围和合作伙伴名单仍处于早期阶段,这表明建立此类设施网络需要大量投资和时间。
尽管还不清楚Altman是否计划购买一家成熟的代工厂来生产AI芯片,或建立一个全新的晶圆厂网络来满足OpenAI及其潜在合作伙伴的需求,但此前有人分析Altman可能会考虑把参与投资的芯片公司纳入麾下,包括CerebrasRain NeuromorphicsAtomic SemiCerebras、Rain Neuromorphics、tomic Semi。
自研AI芯片能从根本解决问题,但这是一条漫长的路,也不能保证一定成功。业内人士也评价,这是一项重大举措、一项重大投资。以3nm或2nm级节点为例,一家这样工艺制程的大批量生产芯片的现代化晶圆厂如今的投资成本可能也将高达300亿美元。
当然,除了巨额的投资金额之外,自研AI芯片还需一定的技术积累,并非投资就能解决一切。OpenAI自研AI芯片之路可谓“道阻且长”。
值得一提的是,有知情人士透露,Sam Altman近日会访问韩国首尔,期间可能同SK集团会长崔泰源会面,或讨论人工智能芯片合作事宜。还有猜测称,奥特曼可能会与三星电子讨论代工和HBM合作事宜。