本文来源 | 元界矩阵
在 Nvidia 最新 GTC 的主题演讲中,首席执行官 Jensen Huang 公布了一系列新进展,包括最新的 GPU 架构和多种形式的高速芯片到芯片和设备到设备连接选项。
总的来说,该公司利用这些关键技术进步推出了从巨大的 Eos 超级计算机到 H100 CNX 融合加速器(一种专为现有服务器设计的 PCIe 卡)的所有产品,以及介于两者之间的许多其他选项。
Nvidia 的重点是由行业对人工智能和机器学习进步的不懈追求所驱动。事实上,该公司在展会上发布的许多芯片、硬件和软件公告中的大多数都与这些关键趋势有关。
观察过去几年计算行业的发展是一项令人着迷的练习。经过几十年几乎只专注于一种芯片——CPU(中央处理单元)——并通过改进其内部架构来衡量改进后,已经发生了向多种芯片类型的巨大转变,尤其是 GPU(图形处理单元),组件之间的高速连接可以提高性能。
在 Nvidia(纳斯达克股票代码:NVDA)最新的 GTC 或 GPU 技术大会上,这一点从未如此清晰。在活动的主题演讲中,公司首席执行官 Jensen Huang 展示了一系列新进展,包括最新的 GPU 架构(以计算先驱 Grace Hopper 命名的 Hopper)以及多种形式的高速芯片到芯片和设备到设备连接选项。
总的来说,该公司利用这些关键技术进步推出了从巨大的 Eos 超级计算机到 H100 CNX 融合加速器(一种专为现有服务器设计的 PCIe 卡)的所有产品,以及介于两者之间的许多其他选项。
Nvidia 的重点是由行业对人工智能和机器学习进步的不懈追求所驱动。事实上,该公司在展会上发布的大多数芯片、硬件和软件公告都与这些关键趋势相关,无论是 HPC(高性能计算)类型的超级计算应用、自动驾驶系统还是嵌入式机器人应用。
说到这一点,英伟达在 2022 年春季 GTC 上还强烈强调它不仅仅是一家芯片公司,它为其现有工具和平台提供重要的软件更新,特别是 Omniverse 3D 协作和模拟套件。为了鼓励更多地使用该工具,Nvidia 宣布推出 Omniverse Cloud,任何人都可以通过浏览器尝试 Omniverse。
对于希望部署高级 AI 应用程序的超大规模企业和大型企业,该公司还推出了多个云原生应用程序服务的新版本或更新版本,包括用于推荐系统的 Merlin 1.0,以及 Riva 语音识别和文本转语音的 2.0 版本服务以及 AI Enterprise,适用于各种数据科学和分析应用程序。
AI Enterprise 2.0 的新功能是对虚拟化的支持以及跨多个平台使用容器的能力,包括 VMware(VMW) 和红帽。总体而言,这些产品反映了该公司作为软件提供商的不断发展。它正在从一种以工具为中心的方法转变为一种提供 SaaS 风格的应用程序的方法,这些应用程序可以部署在所有主要的公共云中,也可以通过戴尔科技 ( DELL )、惠普企业 (Hewlett Packard Enterprise) 等公司的本地服务器硬件进行部署。HPE)和联想(OTCPK:LNVGY)。
然而,永远不要忘记它的根源,Nvidia 最新 GTC 的明星是新的 Hopper GPU 架构和公司推出的 H100 数据中心 GPU。基于 4 nm 工艺的 Nvidia H100 拥有高达 800 亿个晶体管,支持多项重要的架构进步。首先,为了加快基于 Transformer 的新 AI 模型(例如驱动 GPT-3 自然语言引擎的模型)的性能,H100 包含一个 Transformer 引擎,该公司声称该引擎与之前的 Ampere 架构相比具有 6 倍的改进。它还包括一组名为 DPX 的新指令,旨在加速动态编程,这是一种由基因组学和蛋白质组学等应用程序利用的技术,以前在 CPU 或 FPGA 上运行。
对于注重隐私的应用程序,H100 还是第一款支持机密计算的 GPU 或加速器(之前的实施仅使用 CPU),允许通过虚拟化可信执行环境加密和保护模型和数据。该架构确实允许在机密计算模式下进行联合学习,这意味着拥有私有数据集的多家公司都可以通过在不同的安全环境中传递相同的模型来训练相同的模型。此外,得益于第二代多实例 GPU 或 MIG 的实现,单个物理 GPU 可以拆分为七个独立的隔离工作负载,从而提高了芯片在共享环境中的效率。
最后,Hopper 还支持 Nvidia 的 NVLink 的第四代版本,这是一个重大飞跃,与以前的技术相比,带宽增加了 9 倍,支持连接多达 256 个 GPU,并支持使用 NVLink Switch。后者不仅可以在单个系统内保持高速连接,还可以在外部系统内保持高速连接。这反过来又启用了一系列新的 DGX Pods 和 DGX SuperPods、Nvidia 自有品牌的超级计算机硬件,以及前面提到的 Eos 超级计算机。
谈到 NVLink 和物理连接,该公司还宣布支持一种名为 Nvidia NVLink-C2C 的新芯片到芯片技术,该技术专为芯片到芯片和芯片到芯片的连接而设计,速度高达 900 Gbps。英伟达组件。最重要的是,该公司开放了以前专有的 NVLink 标准以与其他芯片供应商合作,并特别宣布它还将支持新推出的 UCIe 标准。这让该公司在如何与其他人合作创建异构部件方面具有更大的灵活性,正如半导体行业的其他人已经开始做的那样。
Nvidia 选择利用自己的 NVLink-C2C 开发新的 Grace Superchip,该芯片结合了公司先前宣布的两个基于 Arm 的 CPU,并透露去年预览的 Grace Hopper 超级芯片使用相同的互连技术来提供高速连接在其单个 Grace CPU 和 Hopper GPU 之间。这两个“超级芯片”都针对数据中心应用程序,但它们的架构和底层技术很好地了解了我们可能期望看到 PC 和其他主流应用程序的发展方向。NVLink-C2C 标准支持 Arm 的 AMBA CHI 协议和 CXL 等行业连接标准,也可用于互连 DPU(数据处理单元),以帮助加快系统内部和跨系统的关键数据传输。
除了所有这些以数据中心为重点的公告外,英伟达还为其用于辅助和自动驾驶的 Drive Orin 平台以及用于机器人技术的 Jetson 和 Isaac Orin 平台推出了更新和更多真实世界的客户。
总而言之,这是对众多技术、芯片、系统和平台的一次令人印象深刻的发布。显而易见的是,未来要求苛刻的 AI 应用程序以及其他艰巨的计算挑战将需要多个不同的元素协同工作来完成给定的任务。
因此,增加芯片类型的多样性以及允许它们相互通信的机制将与单个类别的进步一样重要——如果不是更重要的话。更简洁地说,我们显然正走向一个互联的、多芯片的世界。
END
美股研究社(meigushe)所发布文章不具有投资建议,请各位投资者自行判断。
因为微信更改了推送规则,推文不再按照时间线显示,如果不点『在看』或者没有『星标』,可能会错过我们的推送,从而错过有关美股的重要新闻。如果不想错过我们的精彩内容,请记得点击进入“美股研究社”公众号,选择右上角“...”,点选“设为星标”。再次感谢您的持续关注!
听说好看的人都点赞了~