深层解读,为什么通用处理器总在挤牙膏?

面包板社区 2019-07-12 18:00

从理论上来说,1946年的ENIAC计算机是全球首款电子通用计算机。不过你可能不知道,这台巨型计算机当时主要是用来计算炮弹射击表的——典型的战争催生技术诞生。如果要用ENIAC执行不同类型的计算,那就需要手动重新安排接线,做新的硬件设计了。


实际上早期的计算机鲜有真正“通用”的设计,它们基本上都是为某一类算法特制的,我们不能简单将其说是像ASIC或FPGA。即便在真空管转向半导体以后,针对新功能进行硬件重新设计也是必须的。后来才有基于冯诺依曼体系的计算机架构,即可以存储指令,在软件中执行算法才成为可能。这是“专门硬件”向通用硬件的华丽转身。



随后CPU这样的通用技术,及摩尔定律影响了人类几十年的历史。在这几十年时间里,对应于通用处理器的专用处理器实际仍然是有市场的,典型的比如GPU执行专门的图形处理。但近些年摩尔定律逐渐失效,以及AI技术的兴起,让专用处理器忽然有了逆袭的趋势,而且这种逆袭可能是以颠覆通用计算市场主体为代价的。


MIT(麻省理工学院)去年11月曾发表过一篇题为《通用技术计算机的衰落:为何深度学习和摩尔定律的终结正致使计算碎片化》的paper。这篇paper认为半导体制造工厂近两年的建造成本还在逐年上升,产品迭代的设计和运营成本则基本上也在同步提升;而且通用芯片同等成本下的性能提升(performance-per-dollar)还在大幅放缓,这让专用处理器更具吸引力。


如果通用计算真的逐渐沉寂,或许对整个行业的众多玩家而言都是一次革命。而这件事的发酵实际也远比很多人想象得影响深远。


良性循环的打破


通用计算技术在出现之后很快就形成了良性循环:1971年的Intel 4004可以认为是首个通用处理器,自此之后市场扩张就彻底打开了。这里的良性循环是指,早期会有用户开始购买通用计算处理器,资金便开始进入到市场中,并让产品在技术方面做得更好;而在产品提升之后又会导致更多的用户购买,并吸引下一轮资金......如此循环往复。


2000-2010年是PC发展的黄金期,销量每年平均提升9%。这样的市场增速自然就刺激了芯片的资金投入。Intel过去10年在研发和生产设备方面的投入达到了1830亿美元。这种程度的投入,造成1971年至今,处理器性能提升多达40万倍。技术的高速迭代也促使下游厂商频繁更新产品,产品淘汰周期很短,销量的提升也就理所应当了。这就是通用处理器以往的良性循环。


值得一提的是,这种良性循环的基础是在短期内,相同成本下的性能提升速度够快。在半导体领域,传说中的摩尔定律是推动这种良性循环的核心。如果技术更新和成本下降无法随时间呈接近指数级变化,则“通用”技术很难存在市场:在电子科技领域以外,就较少见到“通用”的存在,比如电动机这种各类家电都需要的设备,始终也未能形成跨设备的“通用”。


通用计算市场的良性循环这么久以来的持续,是我们都有目共睹的。专用硬件虽然有其独有的市场空间,却从未对通用处理器造成真正威胁。但2012年有个大事件发生:这一年的ImageNet视觉识别挑战赛上,有个名叫AlexNet的项目刷新了程序识别视觉图像的记录。这个项目将程序识别图像的错误率下降到了16%——而往年类似SVM这样的矢量机顶多也就能达到26%上下的错误率。


AlexNet用到了当时还不算普及的深度学习技术。神经网络技术早在上世纪80年代曾经火过一段时间,但那会儿的计算能力并不足以承载哪怕是规模不大的神经网络。而AlexNet则在挑战赛上应用了针对深度学习的“专用处理器”——主体就是GPU。借助GPU硬件重并行计算、大存储空间,以及深度学习本身就看重算法并行,AlexNet赢得了那场比赛。在AlexNet亮相之后,同行也都开始采用GPU进行深度学习应用。很快深度学习开始应用于语音识别、机器翻译等领域。除了现如今Siri、Alexa这些常规的智能助手已经普及了深度学习,Facebook甚至用深度学习来识别图片、过滤部分文字内容、定制化广告呈现。


深度学习可以认为是刺激专用处理器极速发展的切入点。2015-2017年英伟达数据中心业务营收发生四倍增长,其中约50%的销售额都来自深度学习。而在2013年,谷歌认为深度学习要求的算力还会更高,于是并未基于GPU构建数据中心,而是开发了更专注的专用处理器:TPU(属于ASIC)。TPU在能够处理的任务方向上更窄,它只能用于神经网络。谷歌在TPU之上花费的开销是相当不菲的,但带来的收益也非常可观。谷歌宣称,其性能红利相当于摩尔定律7年的发展,而且开发TPU还避免了基础设施方面的花销。


此后不久,Facebook又与Intel合作开发神经网络处理器Lake Crest。而在移动终端,华为率先为手机SoC推出了NPU神经网络执行专核,苹果也在前年的A系列SoC中加入了类似的组成部分。而这种NPU在处理神经网络inferencing任务时的算力,是远非CPU、GPU这些相对更通用的处理单元可比的。


实际上,专用处理器已经在各类计算平台发力,包括移动、数据中心、PC、IoT。苹果的A系列SoC,目前只有20%的面积给通用处理器,其余部分都分配给了专用电路,包括运动协处理器、神经网络执行单元;IoT终端硬件,包括各类传感器、RFID标签基本都基于专用硬件;在超算领域,自2010年以后,采用专用处理器的Top 500超级计算机比例正在逐年上升——而且到去年专用处理器为Top 500超级计算机增加的算力总和,首次超过了通用处理器。


Intel“挤牙膏”的深层原因


前述通用处理市场良性循环三要素分别是用户、资金、产品。探究转向专用处理器的内在原因,恐怕可以从链条中的“资金”这一环说起。每年半导体行业造成的收益是巨量的,但半导体行业协会(SIA)2017年估算,针对新一代技术节点建工厂,配套制造设备,大约需要70亿美元。在过去25年间,构建最新制程节点工厂的投入每年平均提升11%,如果加上工艺开发,则可将成本每年推升13%(2001-2014)。




2002-2014年,最新节点工艺制造商的数量变化,来源:Smith (via MIT)

那么要抵消这些固定成本的急剧提升,一方面自然是要求半导体行业本身的成长、更大的市场规模,以企业更高的产量来摊薄固定成本。另一方面,则在成本和市场增长不对等的情况下,导致一部分市场玩家离开,那么剩余的玩家就能进一步获取市场,拿到更大的销量来再行摊薄成本——这一点原本就是趋势,从2002年至今,能玩转最先进工艺制程的晶圆厂已经所剩无几。在GlobalFoundries退出7nm竞争之后,市场上还能做最先进制造工艺的企业现在就只剩下Intel、台积电和三星了。


如果粗略地算一笔账,在上述两个条件同时满足的情况下,现有的市场参与者才刚好让这一市场的增长率(理想情况下如果市场份额在几个参与者间均分,则结合历年数据,企业复合年增长率约为14%),和前述13%成本提升两相抵消,并有盈余。那么按照固定成本还在推升的趋势,未来参与者还需要进一步侵吞竞争对手,才可能获得生机。


至少我们可以认为,这种趋势是不能持续的。而制造商真正的解决方案很显然,是被迫减缓新技术节点的迭代,或者通过其他方式来控制成本,这对通用计算市场而言显然是不利的。


市场的这种整体恶化,实际对Intel产生了很大的影响——而且Intel一直以来的主要营收支柱就依赖最新工艺,所以市场实际状况对Intel的打击也远高于三星和台积电,如台积电更早的节点也是其重要营收来源。Intel工厂的固定成本与可变成本之比,在过去10年间从60%攀升到了超过100%。



Intel过去10年的R&D投入变化,来源:YCHARTS


要解决成本控制问题主要有两种方法,一是推高产品的平均售价获得更高的利润;二是减缓新节点制程的更新步伐,把新工艺的迭代周期推迟一年。实际上Intel同时采用了这两种方案。抛开技术层面的问题不谈,推迟工艺迭代也算是个必然选择,无怪乎挤牙膏的市场现状(虽然近期AMD给Intel造成的压力不小,导致硬着头皮也要上)。


那么实际上,前文提到的“良性循环”就已经有了缺口。三要素之一的资金,已经出现了问题,也实质上造成了另一个要素的问题:技术迭代不得不放缓。而技术迭代的放缓又不只是资金问题造成的,物理极限本身造成了工艺迭代难度大增。从SPECint的测试数据来看,1985-2005年通用计算机每年平均跑分成绩提升52%,而在2005年之后掉到每年22%,预计到2020-2025年期间这个数字还要缩减。美国劳工统计局的数据为,通用处理器相同成本下2000-2004年每年性能提升平均为48%,2008-2014年则为8%。


那么在技术水平更新变慢以后,就要开始影响良性循环中的第三个要素用户了。早在2016年,当时的Intel CEO Brian Krzanich在Bernstein Strategic Decisions Conference会议上说,用户更换PC的周期已经扩展到了5-6年。实际情况是,手机的消费用户更换周期也在延长。在这种情况下,通用计算市场原有的良性循环实际已经被打破,甚至成为了恶性循环,让通用计算市场的发展越来越慢。


专用处理器市场过小?


或许有人会说,晶圆厂的这种问题,工艺迭代放缓也会影响到专用处理器。但实际上专用处理器大部分情况下的理想成本选择并非最新制造工艺。而不同的应用本身也正需要不同的工艺,所以上述问题对专用处理器的影响也就小了很多。


这些因素都让专用处理器变得更有吸引力。一般更通用的处理器,在设计时所需的妥协更多。比如在芯片面积方面的权衡:是增加额外的处理器核心用于并行计算,还是增加cache提升存储子系统的性能。毕竟通用处理器要执行各种各样的计算,自然无法针对某种特定的任务做特别的照顾。而专用处理器是量体裁衣,比如做更出色更稳定的并行运算、更少的存储访问需求,以及可能更低的精度。


比如GPU相比CPU,频率通常低得多,但每个时钟周期内以并行的方式就能执行100倍量的计算。所以GPU在重并行运算方面就具备了极大的优势,但处理一些少并行的工作可能就不及CPU了;另外GPU的内存带宽可以达到CPU的10倍,但数据访问延迟却高得多,这样一来GPU的预测计算能力就更强。而专用处理器的另一个特性就是由于量体裁衣,所以更节能,无论对电池驱动的小型IoT设备,还是对大到云计算、数据中心和超算,都是有很大价值的。


不难想象前文提到的专用处理器在更多领域正逐渐开花。不过专用处理器也存在缺陷,典型的就是弹性较差。好比英伟达的GPU,虽然高维矢量运算能力强,在科学和工程领域应用还算多。但实际上绝大部分的软件都是不能跑在GPU上的。而GPU已经算是通用性还稍强的处理器了。而且编程难度高,只有那些经验最丰富、对性能要求很高的程序员才有能力将GPU应用到非图形计算领域。


而专用处理器最大的问题实际也是来自固定成本。对于通用处理器来说,固定成本的摊薄是基于巨大的销量。或许GPU、NPU之类的市场都还比较大,但更多专用处理器仅着力细分市场,市场规模与通用处理器不可同日而语。即便用更早的制造工艺,成本如何控制的问题也仍然存在。这也是过去几十年,专用处理器未能真正大规模兴起的原因。


实际上,某一个种类的专用处理器能否兴起关乎几个因素:相对性能 r(专用处理器性能/通用处理器性能),通用处理器本身的性能提升速度λ,以及专用处理器达到与通用处理器相同成本所需的时间T(这个值是指在出售过程中摊薄成本的时间)。


如果某款专用处理器的固定成本更高,那么它所需摊薄成本达到与通用处理器同一水平所需的时间T也就更久。而客户是否选择专用处理器,除了价格之外还要看专用处理器性能表现如何——以及通用处理器性能提升速度λ是否很快。如前文所述,美国劳工协会的数据为2000-2004年,λ=48%;而2004年λ=29%,2008年λ=8%。符合通用处理器性能提升逐年放缓的趋势。


来源:MIT


上面这张图,横轴表示相对性能r(专用处理器性能/通用处理器性能),纵轴表示处理器出货量。在摩尔定律鼎盛时期,也就是λ=48%的时候,如果说r=100,也就是专用处理器比通用处理器快100倍,则至少需要出货83000个产品,才能让专用处理器在成本效益方面打败通用处理器。如果r=10,也就是双方性能差距10倍,则出货量需要达到16.7万;如果r=2,则出货量需要100万,才能让专用处理器在市场上更有竞争力。这几个出货量值对于细分领域的专用处理器而言都显得过大。


不过考虑到现如今λ已经下滑到了8%,那么r=100时,要求的出货量就能降到15000;r=10时,要求的出货量可降至27000;r=2时,要求的出货量为81000。就这个时间节点来看,某些应用领域的专用处理器就已经可以达到这样的经济效益了,甚至对专用处理器的性能要求也降低了很多。


计算的细分和碎片化


深度学习或者说AI这样的应用场景正越来越普遍。仅企业市场,IDC预计,应用于AI和机器学习的花销预计会从2017年的120亿,达到2021年的576亿——当然这其中也并不单只和半导体相关。其应用场景涵盖了BI(商务智能)与分析市场、数据科学平台等。Deloitte Global认为机器学习IP最快的成长领域就是专用芯片的开发,数据显示数据中心的机器学习芯片,2016年出货量在20万,而2018年就达到了80万。


谷歌TPU板子


前述英伟达专为AI优化的GPU,以及谷歌TPU即是这一场景中的例子。谷歌还在去年的Google I/O大会上宣传了TPU第三代产品,可见是真正尝到甜头的。微软Brainwave加速器采用FPGA的方式,为实时AI设计;Intel则有深度学习inference加速器(位于数据中心加速卡中的FPGA),还有放在USB小型计算设备中的低功耗AI加速器Movidius Compute Stick;更多市场参与者如Graphocore IPU、Tachyum、Wave Computing...单是AI这一领域百花齐放的态势就已经形成了。


而AI只是专用处理器的某一个方向,更多开发者的加入,并且相继让前期投入的企业尝到甜头之后,适配其他算法的新硬件也会相继诞生,专用计算市场持续扩增。那么计算在硬件部分就开始进一步细化了,似乎又返回到计算机刚诞生的那个“专用”时代,一种硬件解决一种问题。


未来市场的应用场景大致分成三类,一类是由于某些原因无法采用专用处理器的类型:比如某些市场本身就非常小,如气候模型这样的小众研究科学,很难利用边际递减的方式把固定成本缩减到合理区间,成本难以摊薄;还有一种情况是某些类型的应用具有特殊性,如数据库——这个市场虽然很大,但数据库计算难以预测,且无法并行,应用专门计算是存在挑战性的。针对这类不能应用专用计算的,唯有继续采用通用计算了。鉴于通用计算整体步调放缓,会进一步减缓这些场景的发展速度,让它们彻底进入慢车道。


第二类是像TPU这样即便通用计算不没落,也一样要发展专用计算的类型——这类型可能是专用计算的最大受益者,但因为其发展和通用计算的兴衰根本上无关,所以很难算在趋势内,即便他们对市场是有贡献的。第三类则是被引导着从通用计算转型到专用计算的类型,这可能是市场发展的真正主体。无论如何这两类都可能会在短期内进入发展的快车道,获得市场最大的红利。


但就长期来看,早前通用计算的良性循环很难在专用计算上持续,无法快速驱动技术革新和成本投入。这样的长期发展可能会延缓半导体新技术的诞生和推广,甚至让创新裹足不前。只不过具体情况大约会更加复杂,这些影响仍然是很值得细究的。


参考来源:

[1] The Decline of Computers as a General PurposeTechnology:

Why Deep Learning and the End of Moore’s Law are Fragmenting Computing - MIT(http://ide.mit.edu/sites/default/files/publications/SSRN-id3287769.pdf)

[2] Measuring Moore’s Law: Evidence from Price, Cost, and Quality Indexes - University of Texas at Austin (https://www.imf.org/~/media/Files/Conferences/2017-stats-forum/session-6-kenneth-flamm.ashx)

[3] The PC upgrade cycle slows to every five to six years, Intel's CEO says - CIO(https://www.cio.com/article/3078005/the-pc-upgrade-cycle-slows-to-every-five-to-six-years-intels-ceo-says.html)

[4] Roundup Of Machine Learning Forecasts And Market Estimates, 2018 - Forbes(https://www.forbes.com/sites/louiscolumbus/2018/02/18/roundup-of-machine-learning-forecasts-and-market-estimates-2018/)

[5] The fierce competition for supremacy in the machine learning chip market - diginomica(https://diginomica.com/competition-hardware-machine-learning-market-take-2)
本文为EET电子工程专辑 原创文章,禁止转载。




↓↓ 点击图片参与活动 ↓↓


------------------------

与工程师一起改变世

面包板社区 面包板社区——中国第一电子人社交平台 面包板社区是Aspencore旗下媒体,整合了电子工程专辑、电子技术设计、国际电子商情丰富资源。社区包括论坛、博客、问答,拥有超过250万注册用户,加入面包板社区,从菜鸟变大神,打造您的电子人脉社交圈!
评论
  • 耳机虽看似一个简单的设备,但不仅只是听音乐功能,它已经成为日常生活和专业领域中不可或缺的一部分。从个人娱乐到专业录音,再到公共和私人通讯,耳机的使用无处不在。使用高质量的耳机不仅可以提供优良的声音体验,还能在长时间使用中保护使用者听力健康。耳机产品的质量,除了验证产品是否符合法规标准,也能透过全面性的测试和认证过程,确保耳机在各方面:从音质到耐用性,再到用户舒适度,都能达到或超越行业标准。这不仅保护了消费者的投资,也提升了该公司在整个行业的产品质量和信誉!客户面临到的各种困难一家耳机制造商想要透
    百佳泰测试实验室 2024-12-20 10:37 156浏览
  • 光耦固态继电器(SSR)作为现代电子控制系统中不可或缺的关键组件,正逐步取代传统机械继电器。通过利用光耦合技术,SSR不仅能够提供更高的可靠性,还能适应更加复杂和严苛的应用环境。在本文中,我们将深入探讨光耦固态继电器的工作原理、优势、挑战以及未来发展趋势。光耦固态继电器:如何工作并打破传统继电器的局限?光耦固态继电器通过光电隔离技术,实现输入信号与负载之间的电气隔离。其工作原理包括三个关键步骤:光激活:LED接收输入电流并发出与其成比例的光信号。光传输:光电传感器(如光电二极管或光电晶体管)接收
    腾恩科技-彭工 2024-12-20 16:30 55浏览
  • 光耦合器,也称为光隔离器,是用于电气隔离和信号传输的多功能组件。其应用之一是测量电路中的电压。本文介绍了如何利用光耦合器进行电压测量,阐明了其操作和实际用途。使用光耦合器进行电压测量的工作原理使用光耦合器进行电压测量依赖于其在通过光传输信号的同时隔离输入和输出电路的能力。该过程包括:连接到电压源光耦合器连接在电压源上。输入电压施加到光耦合器的LED,LED发出的光与施加的电压成比例。光电二极管响应LED发出的光由输出侧的光电二极管或光电晶体管检测。随着LED亮度的变化,光电二极管的电阻相应减小,
    腾恩科技-彭工 2024-12-20 16:31 72浏览
  • 汽车驾驶员监控系统又称DMS,是一种集中在车辆中的技术,用于实时跟踪和评估驾驶员状态及驾驶行为。随着汽车产业智能化转型,整合AI技术的DMS逐渐成为主流,AI模型通过大量数据进行持续训练,使得驾驶监控更加高效和精准。 驾驶员监测系统主要通过传感器、摄像头收集驾驶员的面部图像,定位头部姿势、人脸特征及行为特征,并通过各种异常驾驶行为检测模型运算来识别驾驶员的当前状态。如果出现任何异常驾驶行为(如疲劳,分心,抽烟,接打电话,无安全带等),将发出声音及视觉警报。此外,驾驶员的行为数据会被记录
    启扬ARM嵌入式 2024-12-20 09:14 98浏览
  • 国产数字隔离器已成为现代电子产品中的关键部件,以增强的性能和可靠性取代了传统的光耦合器。这些隔离器广泛应用于医疗设备、汽车电子、工业自动化和其他需要强大信号隔离的领域。准确测试这些设备是确保其质量和性能的基本步骤。如何测试数字隔离器测试数字隔离器需要精度和正确的工具集来评估其在各种条件下的功能和性能。以下设备对于这项任务至关重要:示波器:用于可视化信号波形并测量时序特性,如传播延迟、上升时间和下降时间。允许验证输入输出信号的完整性。频谱分析仪:测量电磁干扰(EMI)和其他频域特性。有助于识别信号
    克里雅半导体科技 2024-12-20 16:35 71浏览
  • 汽车行业的变革正愈演愈烈,由交通工具到“第三生活空间”。业内逐渐凝聚共识:汽车的下半场在于智能化。而智能化的核心在于集成先进的传感器,以实现高等级的智能驾驶乃至自动驾驶,以及更个性、舒适、交互体验更优的智能座舱。毕马威中国《聚焦电动化下半场 智能座舱白皮书》数据指出,2026年中国智能座舱市场规模将达到2127亿元,5年复合增长率超过17%。2022年到2026年,智能座舱渗透率将从59%上升至82%。近日,在SENSOR CHINA与琻捷电子联合举办的“汽车传感系列交流会-智能传感专场”上,艾
    艾迈斯欧司朗 2024-12-20 19:45 98浏览
  •         不卖关子先说感受,真本书真是相见恨晚啊。字面意思,见到太晚了,我刚毕业或者刚做电子行业就应该接触到这本书的。我自己跌跌撞撞那么多年走了多少弯路,掉过多少坑,都是血泪史啊,要是提前能看到这本书很多弯路很多坑都是可以避免的,可惜这本书是今年出的,羡慕现在的年轻人能有这么丰富完善的资料可以学习,想当年我纯靠百度和论坛搜索、求助啊,连个正经师傅都没有,从软件安装到一步一布操作纯靠自己瞎摸索,然后就是搜索各种教程视频,说出来都是泪啊。  &
    DrouSherry 2024-12-19 20:00 110浏览
  • 百佳泰特为您整理2024年12月各大Logo的最新规格信息。——————————USB▶ 百佳泰获授权进行 USB Active Cable 认证。▶ 所有符合 USB PD 3.2 标准的产品都有资格获得USB-IF 认证——————————Bluetooth®▶ Remote UPF Testing针对所有低功耗音频(LE Audio)和网格(Mesh)规范的远程互操作性测试已开放,蓝牙会员可使用该测试,这是随时测试产品的又一绝佳途径。——————————PCI Express▶ 2025年
    百佳泰测试实验室 2024-12-20 10:33 116浏览
  • Supernode与艾迈斯欧司朗携手,通过Belago红外LED实现精准扫地机器人避障;得益于Belago出色的红外补光功能,使扫地机器人能够大大提升其识别物体的能力,实现精准避障;Belago点阵照明器采用迷你封装,兼容标准无铅回流工艺,适用于各种3D传感平台,包括移动设备、物联网设备和机器人。全球领先的光学解决方案供应商艾迈斯欧司朗(瑞士证券交易所股票代码:AMS)近日宣布,与国内领先的多行业三维视觉方案提供商超节点创新科技(Supernode)双方联合推出采用艾迈斯欧司朗先进Belago红
    艾迈斯欧司朗 2024-12-20 18:55 78浏览
  • 随着工业自动化和智能化的发展,电机控制系统正向更高精度、更快响应和更高稳定性的方向发展。高速光耦作为一种电气隔离与信号传输的核心器件,在现代电机控制中扮演着至关重要的角色。本文将详细介绍高速光耦在电机控制中的应用优势及其在实际工控系统中的重要性。高速光耦的基本原理及优势高速光耦是一种光电耦合器件,通过光信号传递电信号,实现输入输出端的电气隔离。这种隔离可以有效保护电路免受高压、电流浪涌等干扰。相比传统的光耦,高速光耦具备更快的响应速度,通常可以达到几百纳秒到几微秒级别的传输延迟。电气隔离:高速光
    晶台光耦 2024-12-20 10:18 142浏览
  • //```c #include "..\..\comm\AI8051U.h"  // 包含头文件,定义了硬件寄存器和常量 #include "stdio.h"              // 标准输入输出库 #include "intrins.h"         &n
    丙丁先生 2024-12-20 10:18 84浏览
  • ALINX 正式发布 AMD Virtex UltraScale+ 系列 FPGA PCIe 3.0 综合开发平台 AXVU13P!这款搭载 AMD 16nm 工艺 XCVU13P 芯片的高性能开发验证平台,凭借卓越的计算能力和灵活的扩展性,专为应对复杂应用场景和高带宽需求而设计,助力技术开发者加速产品创新与部署。随着 5G、人工智能和高性能计算等领域的迅猛发展,各行业对计算能力、灵活性和高速数据传输的需求持续攀升。FPGA 凭借其高度可编程性和实时并行处理能力,已成为解决行业痛点的关
    ALINX 2024-12-20 17:44 84浏览
  •         在上文中,我们介绍了IEEE 802.3cz[1]协议提出背景,旨在定义一套光纤以太网在车载领域的应用标准,并介绍了XMII以及PCS子层的相关机制,在本篇中,将围绕IEEE 802.3cz-MultiGBASE-AU物理层的两个可选功能进行介绍。EEE功能        节能以太网(Energy-Efficient Ethernet)是用于在网络空闲时降低设备功耗的功能,在802.3cz的定义中,链
    经纬恒润 2024-12-19 18:47 83浏览
我要评论
0
点击右上角,分享到朋友圈 我知道啦
请使用浏览器分享功能 我知道啦