百度智算峰会精彩回顾:加速计算助力智能云深入产业

英伟达NVIDIA中国 2022-12-27 19:52

过去十年,全球迎来一场 AI 革命,人工智能在各行各业引发了颠覆性的变革。在机器学习、深度学习、大规模语言模型等 AI 能力的加持下,自动驾驶、生物医药、行业大模型、智算中心等行业和领域正迎来百万倍的效率飞跃。而这一切的背后,离不开加速计算。


在今日举行的“2022 百度云智峰会·智算峰会”上,NVIDIA 亚太区开发与技术部总经理李曦鹏分享了以“加速计算助力智能云深入产业”为题的演讲,介绍了 NVIDIA 在加速计算领域的思考及洞见,包括 NVIDIA 如何与客户一起探索互联网行业的加速计算解决方案,实现端到端的极致性能优化,以及加速计算可以如何助力云深入到行业。以下为内容概要。



10 年 100 倍,加速计算价值千亿的巨大空间


我们首先看一下加速计算,以及各种计算任务(workload)如何上云。


对于一个现代的加速计算集群,这个集群可以是云上的一个高性能集群,也可以是客户自建的一个加速计算集群。它们需要去承担非常多种类的计算任务,从 AI 任务到 simulation(模拟或仿真),以及二者的组合 Sim+AI,或者 AI for Science,再到目前最火爆的数字孪生、量子计算等。大家可以看到,加速计算集群需要去支撑的计算任务非常丰富,实际上,这里还有大量,类似于数据处理、云端渲染、信息召回,数据库等也同样需要去加速的计算任务没有罗列出来。


大家可能会说,上面的这些计算任务是一个数据中心的典型应用,为什么要说是加速计算集群的典型应用呢?过去几十年间,得益于摩尔定律,算力在持续增长。但如今摩尔定律已经放缓,从最初每年 1.5-1.6 倍性能的提升,下降到如今每年 1.1 倍左右的提升。与此同时,加速计算却依然保持着每年 1.6x 以上的性能增速。五年可以实现 10 倍的性能提升,十年就可以实现 100 倍的提升,这与摩尔定律十年可以实现的 4 倍性能提升形成了显著的差异。


另一个方面,碳足迹、能源消耗,以及机房空间等各个因素,都制约了传统计算的规模扩大。如果大家看一下使用了加速计算的 Green 500 前 30 的超级计算机,它们的平均效能比是其他超级计算机的 7 倍多。这不但带来了能源的节省,也同时带来了更低的成本,使得我们的计算任务,特别是以 AI 为代表的计算任务可以不断地持续增加。


针对 AI 部分,和大家通常理解的只是模型训练和预测不同,NVIDIA 一方面需要对整个工作流提供端到端的加速,另外,也需要通过对不同部分的模块化,普惠到更多企业和终端用户。NVIDIA 在这方面一直引领业界,我们也提供了从基础设施、调度、加速库、加速框架、部署工具,一直到最上层的应用框架的全套解决方案,也就是 PPT 中所展示的 NVIDIA AI 平台软件 NVIDIA AI Enterprise。这里我就不具体展开,只是举一个例子。



我们以典型的 AI 模型端到端流程,介绍 NVIDIA 能提供什么支持。通常我们看到的,其实是图中中间的两个步骤,训练和预测,还有部分人在预测的时候也会简单使用框架进行预测。但是实际上,问题比这个复杂很多。


首先我们需要去做数据预处理,这里 NVIDIA 提供了 RAPIDS (针对结构化的数据),CV-CUDA(针对图片数据)等各种解决方案。


数据预处理的一个难点,需要做到训练预测的一致性,减少调试过程。处理好的数据需要喂给模型训练,模型训练企业用户可以选用不同的框架。NVIDIA 加速了 PyTorch、TensorFlow、JAX,还有国内越来越流行的 PaddlePaddle 等框架。同时,也有 TAO Toolkit 来做迁移学习。


这里的一个难点是,需要做好数据预处理和训练的流水,避免频繁的数据搬运。有了模型之后,我们需要做预测优化。TensorRT 是现在精度最高、速度最快的深度学习推理优化器,NVIDIA 也在不断提高它的性能,并与各个深度学习框架集成,降低使用门槛。有了加速预测的模型后,我们可以使用 Triton 来进行大规模的部署。而实际使用中采集到的新数据,又可以用于训练。如果我们只是加速其中一部份,是没有办法达到模型的快速迭代,和实现整体性能的成倍提升,因此我们强调端到端的优化。


刚才我们以 AI 为例,讲到了 AI 类的计算任务如何可以被加速。但是实际上,目前世界上只有 5% 的计算任务被加速,这已经是几百亿美金的市场。


 // 

未来十年,所有的计算任务都将被加速,包括现有的以及十倍于现阶段的新计算任务!这将为加速计算市场带来 100 倍的增长空间!



NVIDIA 在加速计算的探索与经验


大家可能会觉得,NVIDIA 真是高瞻远瞩,早早落子各个行业的加速计算方案。但是实际上,今天大家看到的解决方案,都是 NVIDIA 基于客户的实际需求,与客户深入合作出来的。下面,我们用大家最为熟悉的互联网行业作为例子,介绍 NVIDIA 如何与客户一起,打造行业的加速计算解决方案。


这一页对我们理解加速计算的价值非常重要,因为,加速计算的特点,决定了我们的工作方式。首先,加速计算对于应用来说,可以带来数量级的性能提升,加速与没加速的应用,性能可能相差几十倍甚至几百倍。


第二,底层的库,例如矩阵计算、快速傅立叶变换、排序、向量操作等,它有一定的普适性,但是上层的应用通常有特异性,并非所有的优化策略都可以自然而然地带来上层应用的优化。这里没有一个一劳永逸的方法。我们常常听到一些加速计算初学者说自己使用了这样或者那样的优化方法,为什么性能并不明显?因为,我们的优化应该是应用导向,Profiling 导向。


第三,根据 Amdahl’s law,一个计算任务里面只有尽可能多的环节被加速才能带来性能的大幅提升。举个极端例子,如果一个计算任务,只有一半的部分被加速了,即使加速速度达到 1000x,整个计算任务的加速上限也只有 2x。因为上层应用的特异性,需要对整个工作流进行优化。而优化带来的巨大收益,我们需要更多地进行软硬协同的设计。所以,AI/HPC 的核心是加速计算,而加速计算的核心是优化,优化,端到端的优化!这需要,业务、算法、工程人员和优化工程师的密切配合。这也是我今天最重要的一页 PPT。



下面,我们以推荐系统,这个互联网最重要的应用为例,介绍 NVIDIA 如何与客户一起,打造行业的加速计算解决方案。


目前 NVIDIA 在推荐系统方面已经拥有了全链路的解决方案和产品。但是几年前,我们最早和百度合作的时候还不是这个样子。


大家可以看到,最著名的 wide & deep 模型是 Google 团队在 2016 年推出的,NVIDIA 和行业客户的深入合作则从 2018 年开始。在一开始,我们就针对 NVIDIA 的 DGX 高性能服务器来重新设计了推荐系统的训练方法和数据分布方式,并且后续的软件、硬件演化都是在此基础上不断去解决新遇到的技术瓶颈。


我们在一开始就是希望去解决 TB 级别以上的推荐系统的模型。在这个过程中的一些重要节点包括:NVIDIA Merlin 的推出、DLRM 进入 MLPerf、Merlin-HugeCTR 将 DLRM 的训练时间推进到 1 分钟以内、Big-ANN-Benchmark 将技术点从排序部分拓展到召回部分等等。另外,今年 3 月份推出的 NVIDIA Grace Hopper SuperChip,更近一步推进了推荐系统的进化。这是一个软硬协同设计、软件适配硬件,应用和软件反过来推进硬件架构革新的典型例子。


我们再来看一下推荐系统技术架构路线及其架构的演化。大家注意,软件架构与硬件架构的演进是和应用本身的发展息息相关,两者是相辅相成的。软硬件架构的演进为应用和算法的演进提供了可能性,而应用和算法的演进也对软硬件架构提出了新的要求。因此,我们称之为 co-design。



我们回到这页 PPT,从最左边看,是在没有深度学习时期的推荐系统,例如传统的矩阵分解,协同过滤等。这个阶段对于算力的要求其实并不高,因此通常直接采用 CPU 的方案。


而到了一些浅层 DNN 的引入,计算量有了适当增加,embedding 大小也持续增加,大家出于惯性,还是喜欢直接使用 CPU。但是很自然,这样的性能会受到节点间通信带宽的限制,也就是再增加服务器的数目,对于提高计算速度没有帮助。这个时候大家就想,我是不是应该做加速计算?


而企业用户很自然第一步,把 DNN 部分移到 GPU 上,这是因为,一,这部分算力最大;另外,二,例如 TensorFlow 等深度学习工具,针对这一部分已经提供了很好的支持。更进一步,随着 DNN 部分的加速,大家会发现瓶颈开始往 embedding 和 CPU-GPU 之间的通信转移,也就是 CPU 的内存带宽和 PCIe 的带宽成为了新的瓶颈。


这个时候,下一代的技术演变就出现了,也就是把 embedding table 也进行 GPU 加速,这里解决了两个问题,一个是内存带宽,GPU 的内存带宽高达 2T~3TB/s,远远高于系统的内存带宽。另外,把 embedding table 移到 GPU 上,将 CPU-GPU 之间通过 PCIe 的通信变为 GPU-GPU 之间 NVLink 的通信,这部分通信速度也得到了成倍的提高。这就有了 NVIDIA 的全 GPU 解决方案。


更进一步,因为 embedding 数据天然存在冷热分布,因此可以利用系统内存进一步提升模型大小,同时保持训练速度,这个时候,NVIDIA 的 Grace Hopper、CPU 和 GPU 之间的高速 C2C 互联就起到了帮助。


我们观察到,几乎所有的重点客户都已经迁移到 CPU+GPU 的混合部署,而头部客户都有重点业务迁移到纯 GPU 方案上,而业界领先的几家公司都有在调研和开发 Grace Hopper 的统一架构。这是一个清晰的发展趋势,各个公司有快有慢,但是加速计算的潮流是无法阻挡的。


对 NVIDIA 而言,推荐系统是一个完全诞生于中国、推广到全世界的全新计算任务。在这个过程中,NVIDIA 的经验是,立足于客户真正有价值的难题,和客户一起攻坚,实现端到端的性能优化!


以推荐系统为例,NVIDIA 的技术增长飞轮是从解决模型推理线上时延的问题,通过优化,实现了几十倍的性能提升,从而给广告业务带来显著的收入提升,进一步推动了更多的模型研发,更复杂的模型开始向  GPU 迁移,最后,引导整个工作流向 GPU 的迁移。


通过一个个关键难题的解决,客户的更多计算任务在 GPU 上实现了性能加速,同时 NVIDIA 也沉淀出了 Merlin 这样的产品来降低推荐系统的进入门槛,扩大了用户群体,带动新一轮的需求产生。这便是我们业务增长的逻辑!


NVIDIA 非常关注客户计算任务中最关键的问题,和客户一起工作,一起为了端到端的极致优化。可以说,加速计算的本质就是实现性能极致优化。而能实现这一点,除了 NVIDIA 带来全栈计算能力之外,更重要的是我们有一批优秀的优化工程师,这是我们的核心生产力。


加速计算助力智能云深入产业


我们刚才看了一个互联网的典型应用,推荐系统。下面,我们来讨论下,加速计算如何可以助力云深入到行业、产业。


以自动驾驶行业为例,看看 NVIDIA 可以做些什么,让技术飞轮转动起来。自动驾驶是一个巨大的行业,麦肯锡的报告称其产业规模可达 8,660 亿美金。而行业的玩家也非常需要技术赋能,特别是基于 AI 的技术赋能。大家想到自动驾驶行业,首先想到的还是车上的设备,比如多少个雷达,多少个摄像头,用的什么芯片。其实这个行业远远不止这样。


我们换个角度,从业务的端到端来看,从自动驾驶汽车的设计、工程、仿真、制造、到销售、服务,都存在着大量的计算任务需要去发掘和构建。这里面的计算任务包括AI的计算任务、HPC 的计算任务、数据科学的计算任务,还有数字孪生所带来的各种机会。


这一切,谁最懂?我们的客户应该最懂自己的需求。当然,也有很多客户,还没有能将自己的需求和加速计算连接起来。而这个行业的解决方案,还有很多空白和等待我们去发掘的地方。这就需要 NVIDIA、百度智能云,一起深入到客户一线,和客户一起分析他们的计算任务,一起共创,找到真正关键的、有价值的计算任务,利用云设施、云服务,构建基于加速计算的解决方案,并通过优化好这些计算任务,实现业务价值,从而推动更多的需求。


再举一个例子,比如未来自动驾驶汽车的设计,也是一个充满想象力的领域。这里面需要大量的计算机辅助工程(CAE)。比如,基于流体力学的外型设计、基于材料力学和结构力学的整车强度分析、基于热物理的电池热管理模拟、雷达天线方位和覆盖范围模拟等。这些都是典型的 HPC 应用,更快的模拟速度、更低的模拟成本,可以加大设计的选择空间和加快效果的验证。


目前,GPU 已经支持了主流的 120 多个 CAE 应用,单就计算流体力学(CFD)部分,已经可以带来 7x 的成本节省和 4x 的电力消耗下降。并且,CFD 也是 AI for Science 快速发展的领域,NVIDIA 的 Modulus,百度的 Paddle AI+Science 科学开发套件,都可以进一步加速 CFD 这一领域。


未来,汽车外型的气动设计可以变成一个自动化的过程,会不会有更多优秀的气动外形的车问世?这将是一个让人充满遐想的领域。注意,这还只是整个产业链中,设计环节中 CAE 的一个例子而已。因此,在我看来,未来利用云设施、云服务,构建基于加速计算的解决方案,大有可为!


最后,我想重新展示这张技术飞轮,和 NVIDIA 创始人兼首席执行官黄仁勋今年 10 月份对于加速计算的判断,作为今天分享的结束页。



这个世界需要加速计算,需要云,需要 NVIDIA 和百度智能云,一起深入客户一线,一起发现、优化,加速最重要的计算任务,需要业务、工程、优化工程师的紧密合作!


点击查看完整视频内容


即刻点击 “阅读原文” 或扫描下方海报二维码收下这份 GTC22 精选演讲合集清单,在NVIDIA on-Demand 上点播观看主题演讲精选、中国精选、元宇宙应用领域与全球各行业及领域的最新成果!


评论 (0)
  • 文/郭楚妤编辑/cc孙聪颖‍不久前,中国发展高层论坛 2025 年年会(CDF)刚刚落下帷幕。本次年会围绕 “全面释放发展动能,共促全球经济稳定增长” 这一主题,吸引了全球各界目光,众多重磅嘉宾的出席与发言成为舆论焦点。其中,韩国三星集团会长李在镕时隔两年的访华之行,更是引发广泛热议。一直以来,李在镕给外界的印象是不苟言笑。然而,在论坛开幕前一天,李在镕却意外打破固有形象。3 月 22 日,李在镕与高通公司总裁安蒙一同现身北京小米汽车工厂。小米方面极为重视此次会面,CEO 雷军亲自接待,小米副董
    华尔街科技眼 2025-04-01 19:39 248浏览
  • 职场之路并非一帆风顺,从初入职场的新人成长为团队中不可或缺的骨干,背后需要经历一系列内在的蜕变。许多人误以为只需努力工作便能顺利晋升,其实核心在于思维方式的更新。走出舒适区、打破旧有框架,正是让自己与众不同的重要法宝。在这条道路上,你不只需要扎实的技能,更需要敏锐的观察力、不断自省的精神和前瞻的格局。今天,就来聊聊那改变命运的三大思维转变,让你在职场上稳步前行。工作初期,总会遇到各式各样的难题。最初,我们习惯于围绕手头任务来制定计划,专注于眼前的目标。然而,职场的竞争从来不是单打独斗,而是团队协
    优思学院 2025-04-01 17:29 249浏览
  • 提到“质量”这两个字,我们不会忘记那些奠定基础的大师们:休哈特、戴明、朱兰、克劳士比、费根堡姆、石川馨、田口玄一……正是他们的思想和实践,构筑了现代质量管理的核心体系,也深远影响了无数企业和管理者。今天,就让我们一同致敬这些质量管理的先驱!(最近流行『吉卜力风格』AI插图,我们也来玩玩用『吉卜力风格』重绘质量大师画象)1. 休哈特:统计质量控制的奠基者沃尔特·A·休哈特,美国工程师、统计学家,被誉为“统计质量控制之父”。1924年,他提出世界上第一张控制图,并于1931年出版《产品制造质量的经济
    优思学院 2025-04-01 14:02 159浏览
  • 退火炉,作为热处理设备的一种,广泛应用于各种金属材料的退火处理。那么,退火炉究竟是干嘛用的呢?一、退火炉的主要用途退火炉主要用于金属材料(如钢、铁、铜等)的热处理,通过退火工艺改善材料的机械性能,消除内应力和组织缺陷,提高材料的塑性和韧性。退火过程中,材料被加热到一定温度后保持一段时间,然后以适当的速度冷却,以达到改善材料性能的目的。二、退火炉的工作原理退火炉通过电热元件(如电阻丝、硅碳棒等)或燃气燃烧器加热炉膛,使炉内温度达到所需的退火温度。在退火过程中,炉内的温度、加热速度和冷却速度都可以根
    锦正茂科技 2025-04-02 10:13 111浏览
  • 北京贞光科技有限公司作为紫光同芯授权代理商,专注于为客户提供车规级安全芯片的硬件供应与软件SDK一站式解决方案,同时配备专业技术团队,为选型及定制需求提供现场指导与支持。随着新能源汽车渗透率突破40%(中汽协2024数据),智能驾驶向L3+快速演进,车规级MCU正迎来技术范式变革。作为汽车电子系统的"神经中枢",通过AEC-Q100 Grade 1认证的MCU芯片需在-40℃~150℃极端温度下保持μs级响应精度,同时满足ISO 26262 ASIL-D功能安全要求。在集中式
    贞光科技 2025-04-02 14:50 234浏览
  • 据先科电子官方信息,其产品包装标签将于2024年5月1日进行全面升级。作为电子元器件行业资讯平台,大鱼芯城为您梳理本次变更的核心内容及影响:一、标签变更核心要点标签整合与环保优化变更前:卷盘、内盒及外箱需分别粘贴2张标签(含独立环保标识)。变更后:环保标识(RoHS/HAF/PbF)整合至单张标签,减少重复贴标流程。标签尺寸调整卷盘/内盒标签:尺寸由5030mm升级至**8040mm**,信息展示更清晰。外箱标签:尺寸统一为8040mm(原7040mm),提升一致性。关键信息新增新增LOT批次编
    大鱼芯城 2025-04-01 15:02 232浏览
  • 文/Leon编辑/cc孙聪颖‍步入 2025 年,国家进一步加大促消费、扩内需的政策力度,家电国补政策将持续贯穿全年。这一利好举措,为行业发展注入强劲的增长动力。(详情见:2025:消费提振要靠国补还是“看不见的手”?)但与此同时,也对家电企业在战略规划、产品打造以及市场营销等多个维度,提出了更为严苛的要求。在刚刚落幕的中国家电及消费电子博览会(AWE)上,家电行业的竞争呈现出胶着的态势,各大品牌为在激烈的市场竞争中脱颖而出,纷纷加大产品研发投入,积极推出新产品,试图提升产品附加值与市场竞争力。
    华尔街科技眼 2025-04-01 19:49 252浏览
  • 探针本身不需要对焦。探针的工作原理是通过接触被测物体表面来传递电信号,其精度和使用效果取决于探针的材质、形状以及与检测设备的匹配度,而非对焦操作。一、探针的工作原理探针是检测设备中的重要部件,常用于电子显微镜、坐标测量机等精密仪器中。其工作原理主要是通过接触被测物体的表面,将接触点的位置信息或电信号传递给检测设备,从而实现对物体表面形貌、尺寸或电性能等参数的测量。在这个过程中,探针的精度和稳定性对测量结果具有至关重要的影响。二、探针的操作要求在使用探针进行测量时,需要确保探针与被测物体表面的良好
    锦正茂科技 2025-04-02 10:41 122浏览
  • 在智能交互设备快速发展的今天,语音芯片作为人机交互的核心组件,其性能直接影响用户体验与产品竞争力。WT588F02B-8S语音芯片,凭借其静态功耗<5μA的卓越低功耗特性,成为物联网、智能家居、工业自动化等领域的理想选择,为设备赋予“听得懂、说得清”的智能化能力。一、核心优势:低功耗与高性能的完美结合超低待机功耗WT588F02B-8S在休眠模式下待机电流仅为5μA以下,显著延长了电池供电设备的续航能力。例如,在电子锁、气体检测仪等需长期待机的场景中,用户无需频繁更换电池,降低了维护成本。灵活的
    广州唯创电子 2025-04-02 08:34 182浏览
  • 随着汽车向智能化、场景化加速演进,智能座舱已成为人车交互的核心承载。从驾驶员注意力监测到儿童遗留检测,从乘员识别到安全带状态判断,座舱内的每一次行为都蕴含着巨大的安全与体验价值。然而,这些感知系统要在多样驾驶行为、复杂座舱布局和极端光照条件下持续稳定运行,传统的真实数据采集方式已难以支撑其开发迭代需求。智能座舱的技术演进,正由“采集驱动”转向“仿真驱动”。一、智能座舱仿真的挑战与突破图1:座舱实例图智能座舱中的AI系统,不仅需要理解驾驶员的行为和状态,还要同时感知乘员、儿童、宠物乃至环境中的潜在
    康谋 2025-04-02 10:23 196浏览
我要评论
0
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦