处理器的第三极

原创 技术大院 2022-08-05 10:00
你关心的就是我们关注的

很长一段时间,CPU 主导了整个数据中心,虚拟化算力成为云计算的重点。


直到人工智能应用的爆发性增长,GPU 的芯片架构被发现更适合支持大规模的AI模型训练和推理,GPU 成为数据中心第二大算力芯片。


当数据中心基础设施遇到的瓶颈越来越难以克服时,新一代 DPU 出现了。



(正文)
01

什么是DPU

从2021年下半年开始,陆陆续续出现了很多DPU领域的初创公司。DPU可以说是当前芯片行业最火热的方向,可能没有之一,风头和声势甚至超过了AI芯片这个“前浪”。


DPU的出现是异构计算又一个阶段性标志。摩尔定律放缓使得通用CPU 性能增长的边际成本迅速上升,数据表明现在CPU的性能年化增长(面积归一 化之后)仅有3%左右1,但计算需求却是爆发性增长,这几乎是所有专用计算芯片得以发展的重要背景因素。

以AI芯片为例,千亿级参数的超大型模型将算力需求推向了一个新的高度,DPU也不例外。

随着2019 年我国以信息网络等新型基础设施为代表的“新基建”战略帷幕的拉开,5G、 千兆光纤网络建设发展迅速,云计算、数据中心、智算中心等基础设施快速扩容。网络带宽从主流10G朝着25G、40G、100G、200G甚至400G发展。网络带宽和连接数的剧增使得数据的通路更宽、更密,直接将处于端、边、云各处的计算节点暴露在了剧增的数据量下,而CPU的性能增长率与数据量增长率出现了显著的“剪刀差”现象。所以,寻求效率更高的计算芯片就成为了业界的共识。

人们发现,单纯使用CPU并不能满足AI工程师和调参者对算力的野心,而GPU特别适合这类计算。GPU上有成千上万个小型计算单元,他们可以同时计算一个难题里的不同部分,然后再把结果结合起来,也就是“并行计算”。这种人海战术比CPU的“串行计算”不知道要高到哪里去了。从此,CPU不再是数据中心里唯一的王。英伟达也成了世界上市值最高的芯片公司。

GPU的登场,只是这场大秀的序曲。把CPU的一大部分算力卸载给GPU之后,人们发现可以把很多其他功能也外包出去,于是又有了智能网卡或者SmartNIC


这个名字听起来既不智能,也不上口,这也注定了它并不能被大多数人所认知。工程师通常不屑于营销,但不可否认的是,没有营销,再好的产品也卖不出来。


当一个人既懂技术、又懂人心,创造一个新的概念就是顺理成章的事情。


2020年10月,黄仁勋在英伟达GTC大会上将基于Mellanox的SmartNIC方案命名为数据处理单元(Data Processing Units, DPU)。


这一年,应该可以算是DPU的元年。


DPU 是以数据为中心的 IO 密集型芯片,采用软件定义技术路线支撑基础设施资源层虚拟化,可以大幅提升计算系统效率、降低整体系统的总拥有成本。DPU可以通过软件定义,延伸至存储、安全等功能,从而满足不同应用场景的具体需求。因此,DPU 也被称为继 CPU、GPU之后的“第三块主力芯片”。


DPU概念一炮而红,吸引业内众多竞争者纷至沓来。作为主力芯片新物种,DPU 市场空间正快速扩张,预计至 2025 年,全球、国内市场有望分别达到 245.3 亿美元、565.9 亿元,复合增速分别为 51.73%、170.60%。当前,DPU 正快速进入数据中心、云计算、智能驾驶、数据通信、网络安全、信创、国防军工等领域。


特别是在数据中心、云计算应用场景,需求较为迫切。在智能驾驶领域,未来,每个车机节点都可视为小型数据中心,随机将产生大量数据的处理、转发、交换和存储需求,为降低车载终端无线侧传输时延,智能驾驶平台有望配备相应 DPU 智能加速平。以 NVIDIA 为例,其智能驾驶平台 Atlan 即集成了 DPU 芯片,并预计在 2025年用于车机之上。


面向DPU巨大潜在市场,海外科技巨头加大布局力度,NVIDIA收购 Mellanox 并发布 BlueField DPU 系列产品,Intel 收购 Altera 发布 IPU 产品,Marvell 和 AMD 等公司 也积极跟进。到国内的DPU创企中科驭数、星云智联、大禹智芯、芯启源、云豹智能,每一家企业都在摩拳擦掌,跃跃欲试。


经过一波收购,在“DPU”全球市场,四天王已完成布局。


02

DPU与CPU、GPU的关系
从SmartNIC变为DPU并非简单的改改名字。为了在数据中心充分实现应用程序的效率,传输卸载、可编程的数据平面以及用于虚拟交换的硬件卸载等功能是SmartNIC的重要部分,但只是DPU的最基本要求之一。

要将SmartNIC提升到DPU的高度,还需要支持更多的功能,比如能够运行控制平面,以及在Linux环境下提供C语言编程等。

DPU是面向数据中心的专用处理器,新增了AI、安全、存储和网络等各种加速功能,将成为新一代的重要算力芯片。它能够完成性能敏感且通用的工作任务加速,更好地支撑CPU、GPU的上层业务,成为整个网络的中心节点。

老黄总结了3个DPU的特点:卸载、加速、隔离。对应DPU的三个主要应用场景:网络、存储、安全:

  • 卸载:数据中心网络服务,比如虚拟交换、虚拟路由;数据中心存储服务,比如RDMA、NVMe(可以把它们理解成一些远程存储技术);数据中心的安全服务,比如防火墙、加解密等等

  • 加速:上面说的那些服务和应用通常使用软件实现,并在CPU里运行。而DPU可以使用硬件实现并运行这些应用,这样比软件运行要快好几个数量级,这也就是我们常常会听到的“硬件加速”

  • 隔离:由于上面说的应用在DPU里运行,而用户应用在CPU里运行,这样就把二者隔离开了。这样会带来很多安全和性能上的好处


一些基本的定位分析:

  • 独立的DPU定位在基础设施处理器,主要是硬件加速

  • 独立的GPU主要做应用层的弹性计算加速

  • 而CPU主要负责低计算密度高价值密度的应用层的工作


如下图所示:CPU有60个面积单位,共计60个CPU核;GPU有60个面积单位,共计60个GPU Core(差不多对应流式多核处理器SM);而DPU则由10个CPU核、10个GPU核以及40个其他加速引擎核组成。


CPU是整个IT生态的定义者,无论是服务器端的x86还是移动端的ARM,都各自是构建了稳固的生态系统,不仅形成技术生态圈,还形成了闭合价值链。

GPU是执行规则计算的主力芯片,如图形渲染。经过NVIDIA对通用GPU (GPGPU)和CUDA编程框架的推广,GPU在数据并行的任务如图形图像、深度学习、矩阵运算等方面成为了主力算力引擎,并且成为了高性能计算最重要的辅助计算单元。2021年6月公布的Top500高性能计算机(超级计算机)的前10 名中,有六台(第2、3、5、6、8、9名)都部署有NVIDIA的GPU。

DPU的出现是异构计算的一个阶段性标志。与GPU的发展类似,DPU是应用驱动的体系 结构设计的又一典型案例;但与GPU不同的是,DPU面向的应用更加底层。随着DPU将数据中心的基础设施操作从CPU上卸载过来,数据中心将形成DPU、GPU、CPU三位一体的状态。


DPU首先作为计算卸载的引擎,直接效果是给CPU“减负”。DPU的部分功能可以在早期的TOE(TCP/IP Offloading Engine)中看到。正如其名,TOE就是将CPU的处理TCP协议的任务“卸载”到网卡上。


传统的TCP软件处理方式虽然层次清晰,但也逐渐成为网络带宽和延迟的瓶颈。软件处理方式对CPU的占用,也影响了CPU处理其他应用的性能。TCP卸载引擎(TOE)技术,通过将TCP协议和IP协议的处理进程交由网络接口控制器进行处理,在利用硬件加 速为网络时延和带宽带来提升的同时,显著降低了 CPU 处理协议的压力。


网络数据处理结构分析:


03

DPU的实现形式

主流的DPU三种技术路线对比:

  • 一是以通用众核处理器为基础DPU(FPGA路线),例如Broadcom的Stingray架构,以多核ARM为核心,以众取胜,可编程灵活性较好,但是应用针对性不够,对于特殊算法和应用的支持,与通用CPU相比并无太显著优势

  • 二是以专用核为基础的异构核阵列(ASIC路线),这种架构的特点是针对性较强、性能较好,但是牺牲了部分灵活性,如IPU

  • 三是将通用处理器的可编程灵活性与专用的加速引擎相结合(MP路线),正在成为最新的产品趋势,以NVIDIA的BlueField-3系列DPU来看,就包括16个ARM核及多个专用加速引擎,Fungible的DPU则包含6大类的专用核,和52个MIPS小型通用核


主流的DPU厂家产品对比:


04

DPU构建新一代数据中心

DPU要解决的核心问题是基础设施的“降本增效”,即将“CPU处理效率低 下、GPU处理不了”的负载卸载到专用DPU,提升整个计算系统的效率、降低 整体系统的总体拥有成本(TCO)。DPU的出现也许是体系结构朝着专用化路线发展的又一个里程碑。


DPU最直接的作用是作为CPU的卸载引擎,接管网络虚拟化、硬件资源池化等基础设施层服务,释放CPU的算力到上层应用。


从处理网络负载和卸载 CPU 任务的智能网卡,演变成新一代数据中心算力和服务的核心,让云服务商“将基础设施和客户应用分而治之”,这个思想也指导着数据基础设施领域近年来的诸多创新。


随着单一服务器的网络端口的速度达到 200G 或以上,原来的网络、存储、虚拟化、安全等基础设施多方面任务,已经无法有效率地由 CPU 承载,而将这一类基础设施任务转移到新的计算单元 DPU 上,这也就意味着,DPU 的设计逻辑需要遵从软件定义思路,它一定是灵活且兼具可编程性的,可以支持不同客户的不同业务和私有协议。


有几个重要的研究报告强有力地证明了,这些基础设施任务的运行可以消耗大量的 CPU 性能。


一项由哈佛大学和谷歌的团队在 2015 年发表的研究报告 Profiling a warehouse-scale computer 称,该研究对谷歌数据中心业务和数以万计的服务器进行了经过三年深度分析,结果显示,跨越不同服务器的应用所产生的属于基础设施类的任务构成了“数据中心税”,消耗了服务器中约 30% 的算力资源。该报告也指出,因为谷歌数据中心服务器数量庞大,若每台服务器资源利用率能提升一点,都会带来巨大的成本效益。


另一项研究是 Meta 数据中心团队 2020 年的分析 Accelerometer: Understanding Acceleration Opportunities for Data Center Overheads at Hyperscale。该团队对运行在 Facebook 计算优化数据中心平台上的微服务进行全面描述,发现执行核心应用程序逻辑只占用 CPU 18% 的时间;剩余时间完全用于非应用程序逻辑核心的一般操作。也就是说,在 Facebook 执行核心应用时,其数据中心里的 CPU 82% 的时间都消耗在基础设施类任务,这个数字是相当惊人的。也正因如此,Facebook 团队态度更加鲜明地表示,“加速此类基础设施的通用模块,可以极大地提高数据中心的性能”。


全球云计算老大亚马逊云 AWS 最早看到数据中心算力的瓶颈和提升空间,因此 AWS 也是最早尝试自研 DPU 芯片的云服务商。AWS 的数据中心体量最为庞大,因此对于算力痛点的体会是最深刻的。其CTO Werner Vogels 就公开表示过,传统架构的数据中心已经优化到了极限


在传统架构下,大量的资源浪费在算力、网络、存储的运营和调度管理上,这些资源没有为客户提供直接价值。

(图|AWS Nitro;来源:AWS)


对此,AWS 的提出的解决方案,就是把大部分虚拟机管理程序迁移到其自研的 DPU —— Nitro 中。


以网络协议处理为例:

要线速处理10G的网络需要的大约4个Xeon CPU的核,也就是说,单是做网络数据 包处理,就可以占去一个8核高端CPU一半的算力。如果考虑40G、100G的高速 网络,性能的 开销就 更 加 难 以 承 受 了。A m a z o n 把这些开销都称 之 为 “Datacenter Tax”,即还未运行业务程序,先接入网络数据就要占去的计算资源。AWS Nitro产品家族旨在将数据中心开销(为虚拟机提供远程资源,加密解密,故障跟踪,安全策略等服务程序)全部从CPU卸载到Nitro加速卡上,将给 上层应用释放30%的原本用于支付“Tax” 的算力!


效果是立竿见影的,Nitro 的应用成功证实了 DPU 的市场价值,管理云服务的程序从原来的 CPU 转移到 DPU 上之后:

  • CPU 的资源几乎可以完全用来运行客户业务负载,其 DPU 使用上不但灵活还兼具高性能

  • 在成本上,DPU 令宝贵的 CPU 资源被充分利用,AWS 大幅提高了能售卖给云客户的算力资源

  • 对于云客户来说,他们同样买到了更高性价比的算力


通过 DPU 达到其数据中心的算力资源利用率最大化,AWS 迎来了前所未有的最高云服务利润:2022 年第一季度,AWS 业务实现收入 184 亿美元,同比去年增长 36.6%;利润 65.1 亿美金,同比去年增长 57%,利润率 35.3% 达到了历史新高。这些数字的背后,离不开其自研的 DPU 芯片 Nitro。


05

DPU助力算力提升

随着“东数西算”在2022年2月正式启动,进一步加速了全国一体化算力网络国家枢纽节点的建设步伐。在《2021-2022全球计算力指数评估报告》显示,算力指数每提高一个点,数字经济和GDP将分别增长千分之3.3和千分之1.8。算力已经成为了数字经济时代核心生产力。


直观的理解算力网络包含两个关键部分:一是“算力”,二是“网络”。然而,“算力网络”的效力不应该是二者的简单的加和,而应该是“倍乘”,通过网络来对算力进行价值放大,承载更多的应用。缺乏算力的网络只能作为数据的传输网,而缺乏网络的算力的使用价值也将大大降低


根据著名的梅特卡夫定律,一个网络的价值等于该网络内的节点数的平方。对于算力网络,宏观来看“节点”包括一下两部分:

  • 各种算力中心(如数据中心、超算中心、智算中心、边缘计算节点等等)

  • 服务的终端应用(如PC、智能手机等具有强交互性的设备,也包括摄像头、智能电表等弱交互性设备)



为了便于分析算力相关的核心基础技术,我们把算力划分为两大类:

  • 应用层算力(Application-Domain Computing Power)

    • 用于执行业务层应用的算力,例如视频解析,数据查询,路径规划,图像渲染等,大体对应到全系统分层架构SaaS和PaaS层

  • 基础层算力(Infrastructure-Domain Computing Power)

    • 用来做资源池化,数据转发,压缩存储,加密解密,文件系统,网络功能虚拟化等基础层负载的算力


预计应用算力的提升主要来自于专用服务器的采用,虽然局部来看,应用层算力一方面得益于更高性能CPU、GPU的采用,另一方面得益于计算从通用走向专用的过程中各种FPGA和ASIC的XPU的引入。虽然引入了大量专用计算单元,但宏观来看,得益于CPU的核心地位,仍然可以维持算力的通用性。


基础算力层的核心功能之一是构建算力流通的“管道”,在传统系统架构中,网络与计算是分离,计算的主体是服务器,网络的主体是网卡、路由器和交换机。


随着DPU技术的逐渐成熟,我们看到大量原本在服务器上运行的基础层负载可以被卸载到与服务器CPU直连的DPU上,保持网络特性的功能不再由服务器端的CPU来维护。DPU的存在,将本地物理资源虚拟化,也将远层访问本地化


DPU开始承载基础算力的角色,并且是在不改变现有路由器和交换机的前提下。DPU的出现也使得网内计算(In-Network Computing)的成熟度得到进一步提升。

注:本节内容选自中科驭数 CEO 鄢贵海先生《关于“算力网络”底层技术的思考 一文,特此说明。

06

DPU,云厂商兵家必争之地

DPU的战鼓早已敲响,未来五年,中国DPU市场规模或超千亿。作为数据中心的“叱咤红人”,DPU势必会是各个巨头和初创公司的必争之地。自研、并购、融资各家公司拿出看家本领来抢占市场先机。


云厂商、芯片大厂、初创公司……谁执牛耳?


如果不解决数据中心资源利用率低下造成的算力供需矛盾,未来还会有更多的算力需求无法匹配上供给。罗兰·贝格 Roland Berger 公司就预测,从 2018 年到 2030 年,无人驾驶算力需求增加 390 倍,数字货币算力需求增加约 2000 倍,VR 游戏算力需求增加约 300 倍。有能力解决这个问题的 DPU 创企,一旦抓住时代机遇便可快速发展。


特别是国内数据中心产业正处于高速发展期,本身就为 DPU 的应用提供了很好的土壤。再加上国内从政府到社会层面意识到芯片产业具有经济性和战略性双重属性,对国产芯片提供前所未有的扶持,以及像东数西算这样的大工程提供了国产 DPU 充分的商用场景,必定可以培育出有世界竞争力的 DPU 芯片公司,做出一款世界级芯片。


越是高端的芯片产品,准入门槛就越高,“赢家独赢”的特点也越明显,即资本、人才、客户等行业资源会不断地集中到头部企业。


一家头部芯片企业的市占率,可能比几家非头部企业的市占率总和还要高很多倍。非头部芯片企业的生存空间会非常小,其投资者的风险也特别大。


虽然 DPU 市场目前仍是一片蓝海,但也会不可避免地走向赢家通吃的局面

(正文完)


-----END-----

看更多精彩内容


推荐阅读

汽车电子

  • 自动驾驶的必经之路

  • 自动驾驶中视觉处理技术革命

  • 中国车规级芯片企业版图

  • 自动驾驶的陷阱

  • 2022,新能源造车新格局
  • 激光雷达,2022年如何演进

「AI 」

  • AI 计算的下半场

  • 畸形的深度学习,把自己逼进死胡同

  • 研究表明,有影响力的数据集正在垄断机器学习研究

  • 科学家纷纷回归学术界,AI拉开下半场大幕

「芯片」

  • 半导体行业大地震

  • AI 芯片创业进入决赛圈

  • 国产GPU创业潮:难言奇迹

  • AI芯片,撑得过明年吗?

  • 寒冬里的寒武纪

  • AI大算力时代:存算一体迎来爆发时刻?

技术大院 传播知识、开阔视野.技术大杂院,睁眼看世界,有种,有趣,有料。
评论
  • 在智能家居领域中,Wi-Fi、蓝牙、Zigbee、Thread与Z-Wave等无线通信协议是构建短距物联局域网的关键手段,它们常在实际应用中交叉运用,以满足智能家居生态系统多样化的功能需求。然而,这些协议之间并未遵循统一的互通标准,缺乏直接的互操作性,在进行组网时需要引入额外的网关作为“翻译桥梁”,极大地增加了系统的复杂性。 同时,Apple HomeKit、SamSung SmartThings、Amazon Alexa、Google Home等主流智能家居平台为了提升市占率与消费者
    华普微HOPERF 2025-01-06 17:23 145浏览
  • 随着市场需求不断的变化,各行各业对CPU的要求越来越高,特别是近几年流行的 AIOT,为了有更好的用户体验,CPU的算力就要求更高了。今天为大家推荐由米尔基于瑞芯微RK3576处理器推出的MYC-LR3576核心板及开发板。关于RK3576处理器国产CPU,是这些年的骄傲,华为手机全国产化,国人一片呼声,再也不用卡脖子了。RK3576处理器,就是一款由国产是厂商瑞芯微,今年第二季推出的全新通用型的高性能SOC芯片,这款CPU到底有多么的高性能,下面看看它的几个特性:8核心6 TOPS超强算力双千
    米尔电子嵌入式 2025-01-03 17:04 55浏览
  • 根据Global Info Research项目团队最新调研,预计2030年全球封闭式电机产值达到1425百万美元,2024-2030年期间年复合增长率CAGR为3.4%。 封闭式电机是一种电动机,其外壳设计为密闭结构,通常用于要求较高的防护等级的应用场合。封闭式电机可以有效防止外部灰尘、水分和其他污染物进入内部,从而保护电机的内部组件,延长其使用寿命。 环洋市场咨询机构出版的调研分析报告【全球封闭式电机行业总体规模、主要厂商及IPO上市调研报告,2025-2031】研究全球封闭式电机总体规
    GIRtina 2025-01-06 11:10 104浏览
  • PLC组态方式主要有三种,每种都有其独特的特点和适用场景。下面来简单说说: 1. 硬件组态   定义:硬件组态指的是选择适合的PLC型号、I/O模块、通信模块等硬件组件,并按照实际需求进行连接和配置。    灵活性:这种方式允许用户根据项目需求自由搭配硬件组件,具有较高的灵活性。    成本:可能需要额外的硬件购买成本,适用于对系统性能和扩展性有较高要求的场合。 2. 软件组态   定义:软件组态主要是通过PLC
    丙丁先生 2025-01-06 09:23 85浏览
  • By Toradex 秦海1). 简介嵌入式平台设备基于Yocto Linux 在开发后期量产前期,为了安全以及提高启动速度等考虑,希望将 ARM 处理器平台的 Debug Console 输出关闭,本文就基于 NXP i.MX8MP ARM 处理器平台来演示相关流程。 本文所示例的平台来自于 Toradex Verdin i.MX8MP 嵌入式平台。  2. 准备a). Verdin i.MX8MP ARM核心版配合Dahlia载板并
    hai.qin_651820742 2025-01-07 14:52 48浏览
  • 村田是目前全球量产硅电容的领先企业,其在2016年收购了法国IPDiA头部硅电容器公司,并于2023年6月宣布投资约100亿日元将硅电容产能提升两倍。以下内容主要来自村田官网信息整理,村田高密度硅电容器采用半导体MOS工艺开发,并使用3D结构来大幅增加电极表面,因此在给定的占位面积内增加了静电容量。村田的硅技术以嵌入非结晶基板的单片结构为基础(单层MIM和多层MIM—MIM是指金属 / 绝缘体/ 金属) 村田硅电容采用先进3D拓扑结构在100um内,使开发的有效静电容量面积相当于80个
    知白 2025-01-07 15:02 76浏览
  • 彼得·德鲁克被誉为“现代管理学之父”,他的管理思想影响了无数企业和管理者。然而,关于他的书籍分类,一种流行的说法令人感到困惑:德鲁克一生写了39本书,其中15本是关于管理的,而其中“专门写工商企业或为企业管理者写的”只有两本——《为成果而管理》和《创新与企业家精神》。这样的表述广为流传,但深入探讨后却发现并不完全准确。让我们一起重新审视这一说法,解析其中的矛盾与根源,进而重新认识德鲁克的管理思想及其著作的真正价值。从《创新与企业家精神》看德鲁克的视角《创新与企业家精神》通常被认为是一本专为企业管
    优思学院 2025-01-06 12:03 124浏览
  • 根据环洋市场咨询(Global Info Research)项目团队最新调研,预计2030年全球无人机锂电池产值达到2457百万美元,2024-2030年期间年复合增长率CAGR为9.6%。 无人机锂电池是无人机动力系统中存储并释放能量的部分。无人机使用的动力电池,大多数是锂聚合物电池,相较其他电池,锂聚合物电池具有较高的能量密度,较长寿命,同时也具有良好的放电特性和安全性。 全球无人机锂电池核心厂商有宁德新能源科技、欣旺达、鹏辉能源、深圳格瑞普和EaglePicher等,前五大厂商占有全球
    GIRtina 2025-01-07 11:02 74浏览
  • 大模型的赋能是指利用大型机器学习模型(如深度学习模型)来增强或改进各种应用和服务。这种技术在许多领域都显示出了巨大的潜力,包括但不限于以下几个方面: 1. 企业服务:大模型可以用于构建智能客服系统、知识库问答系统等,提升企业的服务质量和运营效率。 2. 教育服务:在教育领域,大模型被应用于个性化学习、智能辅导、作业批改等,帮助教师减轻工作负担,提高教学质量。 3. 工业智能化:大模型有助于解决工业领域的复杂性和不确定性问题,尽管在认知能力方面尚未完全具备专家级的复杂决策能力。 4. 消费
    丙丁先生 2025-01-07 09:25 83浏览
  • 每日可见的315MHz和433MHz遥控模块,你能分清楚吗?众所周知,一套遥控设备主要由发射部分和接收部分组成,发射器可以将控制者的控制按键经过编码,调制到射频信号上面,然后经天线发射出无线信号。而接收器是将天线接收到的无线信号进行解码,从而得到与控制按键相对应的信号,然后再去控制相应的设备工作。当前,常见的遥控设备主要分为红外遥控与无线电遥控两大类,其主要区别为所采用的载波频率及其应用场景不一致。红外遥控设备所采用的射频信号频率一般为38kHz,通常应用在电视、投影仪等设备中;而无线电遥控设备
    华普微HOPERF 2025-01-06 15:29 131浏览
  •     为控制片内设备并且查询其工作状态,MCU内部总是有一组特殊功能寄存器(SFR,Special Function Register)。    使用Eclipse环境调试MCU程序时,可以利用 Peripheral Registers Viewer来查看SFR。这个小工具是怎样知道某个型号的MCU有怎样的寄存器定义呢?它使用一种描述性的文本文件——SVD文件。这个文件存储在下面红色字体的路径下。    例:南京沁恒  &n
    电子知识打边炉 2025-01-04 20:04 100浏览
  • 本文介绍Linux系统更换开机logo方法教程,通用RK3566、RK3568、RK3588、RK3576等开发板,触觉智能RK3562开发板演示,搭载4核A53处理器,主频高达2.0GHz;内置独立1Tops算力NPU,可应用于物联网网关、平板电脑、智能家居、教育电子、工业显示与控制等行业。制作图片开机logo图片制作注意事项(1)图片必须为bmp格式;(2)图片大小不能大于4MB;(3)BMP位深最大是32,建议设置为8;(4)图片名称为logo.bmp和logo_kernel.bmp;开机
    Industio_触觉智能 2025-01-06 10:43 87浏览
  • 这篇内容主要讨论三个基本问题,硅电容是什么,为什么要使用硅电容,如何正确使用硅电容?1.  硅电容是什么首先我们需要了解电容是什么?物理学上电容的概念指的是给定电位差下自由电荷的储藏量,记为C,单位是F,指的是容纳电荷的能力,C=εS/d=ε0εrS/4πkd(真空)=Q/U。百度百科上电容器的概念指的是两个相互靠近的导体,中间夹一层不导电的绝缘介质。通过观察电容本身的定义公式中可以看到,在各个变量中比较能够改变的就是εr,S和d,也就是介质的介电常数,金属板有效相对面积以及距离。当前
    知白 2025-01-06 12:04 173浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦