今年CES期间,有关Intel的两个重大事件,一是AI PC的发力,二是Intel宣布要开始全面进军汽车市场了。不过有关第二点,对Intel业务了解的读者应该知道,Intel早在2017年就宣布了收购Mobileye这家专注于汽车ADAS/AV SoC的企业,所以Intel对于汽车市场的态度,至少从前几年就能看出些端倪。
而且在CES的汽车业务媒体活动上,Intel也多次谈到了Mobileye,并且表示Mobileye是Intel有机会从整车出发做技术和产品投入的起点。
从截至去年9月末的Q3 2023季报来看,Mobileye业务季度营收5.3亿美元,运营收入(operating income)1.7亿美元,这两个数字相比去年同期分别还同比增长了18%和20%。
虽说过去两年汽车市场对Mobileye的质疑之声不少,但这个业务的实际营收表现都相当不错。2022年全年Mobileye的营收19亿美元,增幅达到35%。虽然只占到Intel公司总营收的3%左右,但Intel对这个子公司应该还是充满期待的。
CES期间Mobileye也在汽车展馆做了场主题演讲中。过去我们对Mobileye的关注一直不多,但从Amnon Shashua教授(Mobileye总裁兼首席执行官)的介绍来看,中国市场接下来对Mobileye也会越来越重要。基于Amnon对于Mobileye的介绍,我们来看看Mobileye的现状和近未来发展策略。
Mobileye去年收获颇丰,中国车企很关键
从现状来看,Amnon介绍说2023年Mobileye的芯片出货量大约在3700万颗左右,搭载车型超过300款——涵盖大众、日产、福特、通用、宝马、现代等品牌,地理位置则覆盖美国、欧洲、亚洲等地。从车型数量的角度来看,2022年的这个数字是233款,所以增幅达到了将近30%。
基于Design Win(也就是Design-In,设计导入)数字,Mobileye总共4个大平台的芯片产品——后文会解释这几个不同的系统,大方向可以理解为自动驾驶等级上的差异——其中ADAS系统的Design Win迄今约在2.75亿辆车左右(这里的ADAS是指Mobileye的ADAS平台);SuperVision平台是365万;
后续更前瞻向的Chauffeur和Drive系统——这两者的客户设计导入应该都是在2023年发生的,目前预期分别是60万和5万辆车。其中Chauffeur上车要等到2025、2026年了;而Drive作为一种更偏面向Robotaxi模式的系统,客户汽车的量产时间最早应该也需要等到2026年。
Amnon说,2023年的Design Win预计能够获得的收入大约是74亿美元,导入设计总的系统量有6.06亿。他展示基于Design Win可产生营收的数字,自2020年到2023年提升了大约3.4倍。不过Amnon强调,这个过程里更重要的其实是ASP平均系统价格的增长。
Mobileye的ADAS系统ASP在50美元左右,SuperVision则大幅飙升到了1500美元,Chauffeur是3000美元,而Drive系统的ASP预计会达到50000美元。单纯看Mobileye的业务,2020-2023年售出的系统ASP也有不小的变化。这体现的主要是当代ADAS/AV系统复杂性的显著提升;另一方面,如果整车价格变化不大,那么也能表现电子系统价值在汽车中占比的增长。“Mobileye的业务正从简单的前向摄像头系统发展到全环绕,以及可脱手可脱眼(hands-off eyes-off)、无人驾驶系统。”
在SuperVision, Chauffeur和Drive这三个系统的发展上,Amnon更具体地提到已经和某个欧美整车厂巨头达成合作,涵盖17款车型,且其中9款是基于Chauffeur平台。另外印度Mahindra也将在2026年上路的车型上开始采用Mobileye的SuperVision平台。
汇总到2026年这段时间,SuperVision和Chauffeur系统由OEM厂商采用的计划,总共30个车型,有燃油车、也有电动车。具体计划表参见上面这张图,此处不做赘述:包括吉利旗下的极氪、极星、Smart、沃尔沃,以及保时捷、一汽、Mahindra,及前面提到的某欧洲OEM巨头覆盖不同品牌的17款车型。要知道再往前推一年,Mobileye的这张计划表里还只有1款车型——显然2023年的Design Win对Mobileye而言是收获颇丰的,影响至少延续到2027年的销量和业绩。
不出意料的,中国在现如今Mobileye可预期的业务中贡献不小,吉利显然是其中关键。Amnon也特别谈到目前已经有超过16万辆汽车搭载SuperVision平台,后续也会由中国的OEM将Mobileye的新平台带到欧洲等市场。“去年8月,我们向极氪推送了产品的全部功能,包括(高速)NOP(领航辅助)。”另外,“城区道路方面,城区领航辅助计划于本季度在中国推送,支持的城市数量也将逐步增加。”Amnon说,“目前(SuperVision)已经支持22个城市,季末会达到大约100个城市,届时城区领航辅助也将开始布局”,今年年中的城区部署覆盖将更进一步。
还有一个维度的数字,Mobileye有个云增强技术名为REM,应当主要是用于辅助现在相对简单的前向摄像头系统的,所以Mobileye称其为“云加强ADAS”。REM具体是一种基于大众数据来构建高精度地图的方案。Amnon表示现在每天都有大约300万辆车发来数据可用于构建地图。2023年的REM技术使用授权总量是4650万份(一份license意为一年一辆车)。某种程度上,这可以视作现有ADAS系统的增值和软件补充,应该也是Mobileye产品ASP增长的组成部分之一。
会上宣布的一个相关事件是奇瑞未来2个月会发布采用Moblieye云增强ADAS的前向摄像头系统,用在星途Exeed VX汽车上——前期会有至少30个城市支持,后续可运营的城市数量还会增加;宣传上至少是在包括可视性不佳、没有车道标识等场景下自动换道能力达成。此前Mobileye在前向摄像头系统业务上,和奇瑞早就有合作:不过这次是国内首个云增强驾驶辅助系统的发布了,对Mobileye而言也是具有相当意义的。
从基础安全到无人驾驶
接下来我们大致聊聊前面谈到的包括ADAS, SuperVision, Chauffeur, Drive在内的系统,分别是什么。这也是Mobileye眼中自动驾驶技术的发展趋势和方向。
从是否脱手脱眼的角度,Mobileye定义的ADAS系统是涵盖了基础安全特性的系统,尤其是车的前向传感器——大部分情况下是指摄像头,也可能是摄像头+雷达——另外前文提到了,它可以辅以云增强技术。这套系统仍然是需要手眼介入的,所以叫hands-on, eyes-on。此前Mobileye出货的大部分产品应当也都在此范围内。
SuperVision就进化到360°感知能力了,整车至少包含11颗摄像头,4个泊车摄像头,7个实现360°视野的远距摄像头。如此可达到的安全级别相比于Mobileye的ADAS平台就高了不少,比如包括横向、后方接近的其他对象也能判断到。这一系统内就可以开始谈NOP领航辅助了。这个平台做到的是可脱手但不脱眼——驾车者仍然需要关注系统,因为所谓的MTBF(平均故障间隔时间)还没有做到可无忧自动驾驶的程度。
基于SuperVision可更进一步的是在高速上在某些ODD(运行设计域)内可做到“可脱眼”。因为在可脱眼的ODD场景下,Mobileye认为车上的人就可以做其他事情了,不光是安全价值,所以Mobieye称其为Chauffeur——译作中文可以理解为私人司机。Chauffeur相比SuperVision在特定场景下的MTBF要显著更优,需要辅以更多的系统冗余、增加传感器——包括前向LiDAR、成像雷达,环绕雷达,和更高的算力。
最后Drive系统追求的就是无人驾驶了——定义ODD,在城市内点到点实现无人驾驶。此时还是需要远程操控(teleoperator),包括在某些情况下汽车需要做出针对外部事件的响应;只不过远程操控介入的机会也不会很多。该系统的目标商业模式就是robotaxi,也就是汽车的共享出行。
Amnon也展示了不少自家系统的实机演示,包括针对某些特定场景的道路环境应对能力,比如路边开着车门的车、锥形路障、急转弯等。Amnon总结其中关键技术包括EyeQ芯片、计算机视觉算法、REM高精地图、基于RSS的规控算法,当然还有ECU盒子,DXP(Driving eXperience Platform)平台——后文会再做介绍,以及主动传感器——Mobileye计划于2025年推出成像雷达,以及2028年会有FMCW(调频连续波)新一代LiDAR。
几个关键问题:AI、冗余与DXP
实际在演讲的后半程,Amnon主要把注意力放到了两个话题上,所以这两个话题理论上应当也可以视作当前Mobileye技术中的精髓所在。
第一是,要实现可脱眼(Eyes-off),如何达到有效的MTBF——“人类每行驶50万英里或5万小时就会发生一次碰撞,驾驶系统需要比这做得好很多才行。”这个问题的其中一个子问题是,针对自动驾驶,怎么用好最新的AI技术突破来达成最优解。其实对于AI技术的利用,也是很多人对Mobileye的关注点。
Amnon对此提出了另一个问题,AI是否应该应用到自动驾驶领域,完整的从输入到输出的端到端全链路。从传感器获取到信号开始,一直到输出控制信号。还有一种是只把AI用于感知环节的端到端:输入传感器感知到的信号,输出感知状态——后续的驾驶策略(规控算法)、决策与控制堆栈是独立的。
Mobileye认为,第一种方案的问题是AI做不到透明化——因为神经网络现阶段本身于外界就是个黑盒;因此可控性就会很差——无论从哪个层级来看都如此;最后MTBF也不行——因为AI模型会犯错。第二种方案是更能接受的,因为驾驶策略仍然是透明可控的,即便MTBF仍是个问题,冗余设计仍然有机会达到更高的MTBF。
端到端的感知方案确认了,Amnon表示要做到有效的解决方案,至少需要满足5个方面的要求:多摄(multi-camera)、多帧(multi-frame,时域信息)、多对象(multi-objects)、多尺度(multi-scale,对远近对象画面有不同空间分辨率需求)、多车道。
Amnon认为,当前的技术主要解决了前三个问题,也就是BEV(birds-eye view,鸟瞰视图):基于获取到的周边图像,应用AI——卷积网络或者Transformer,以及自回归模型来构建感知状态。Mobileye的这一系统名为Top View Net。“我们只使用泊车摄像头来做这个,四个泊车摄像头的感知信息输入BEV网络,获得每侧15米左右附近的感知状态。”“它也适用于另外一些产品,5V5R+。”
“现在很多车用4颗泊车摄像头来做泊车。”“这些摄像头并不在智能驾驶、驾驶辅助上发挥作用。”“实际可以用这些泊车摄像头构建Top View Net网络,和前向摄像头一起,基于现有硬件打造更高等级的驾驶辅助。我们称之为5V5R+。”
但这套方案不能应用于全范围。因为在需要做考量全向的方圆200米范围内,考虑距离精度、信息精度、网络通道等,最终所需的计算和存储资源是不现实的。这时候很自然考虑的是引入Sparse BEV——稀疏化方案,比如学术文献有提到过的BEVFormer、DeTR3D。
显然前3个要求之外的另外2个,多尺度、多车道就能发挥作用了。多尺度实际上是针对不同远近对象做不同的空间精度采样,而多车道是把场景中的对象放到车道里——前文提到的“REM高精地图就发挥作用了”,“地图本身就是最基础的先验信息,有了地图就知道车道在哪儿,也能提前将行人所在位置传递给车辆,还能进行道路分配”。
这就是Mobileye的端到端感知方案“5 multi problems”基本理念了,尤其是加上基于地图的感知状态。Amnon演示了Mobileye的解决方案因此对于很多场景下的遮挡对象有更高的识别精度。某些复杂场景,就是“需要对所有摄像头信息、空域、时域,不同摄像头、不同帧、不同尺度进行处理,同时还要加入REM地图的考量”。
但另一方面,这些仍然不够,还需要更多冗余方案的补充。Mobileye预备后续发布成像雷达与FMCW激光雷达就是提供冗余,达成高MTBF。与此同时,在端到端系统感知方案之外,Mobileye也尝试用所谓Decomposable的方法,用于解决一些更极端场景的问题,覆盖所谓的edge case或corner case。
Mobileye准备在2025-2026年推向市场的成像雷达产品
以上探讨的是第一个话题如何达到高MTBF。而第二个话题是,如何实现规模化(scale)。这个问题的本质,就我们的理解是,汽车电子化、标准化,以及软件定义所致的软硬件解耦,可能很大程度致使最终的整车体验趋同——就跟智能手机一样,不同的品牌最终造出来的手机体验是大差不大的。这可能是大部分电子系统走向平台通用化需要共同面对的问题。
对于芯片企业而言,面向每个品牌、车型做芯片、算法及方案定制是不现实的。具体到Mobileye提出的问题关键是,基于Mobileye的感知方案,和OEM自己的驾驶策略:由于驾驶策略的复杂性,以及它与感知方案强相关,则Mobileye需要为每个车厂打造不同的感知方案分支——这是完全不可持续的。
不仅是各方面流程的不现实,规模化才可能带来成本效益和更好的产品。这种通用与定制的矛盾该怎么解决?让OEM企业能够带来差异化的驾车体验,同时又让芯片企业的方案实现通用与规模化。Mobileye的答案是DXP平台。
实际上,Amnon也提了其他两种方案,其一是提供SDK,其二是给出一些可调参数选项,实现驾车体验的弹性化。这两种方案都有其现实问题(似乎Mobileye在开发EyeQ6平台时有考虑过第二种方案的施行)。最终的基本思路,是提取公因式(separate universal from the unique),所谓的“公因式”应该是指不同车型的共通点,比如说感知——这对当代所有汽车而言都是类似的。而对OEM企业而言,驾驶策略的差异化部分在于影响驾车体验的控制和HMI。
而Mobileye的DXP(Driving eXperience Platform)的定义是操作系统、工具和抽象,让OEM能够去控制、编码系统中影响到驾车体验的个体要素,同时不需要再去自己重做那些复杂的通用要素。“通用的部分就像是操作系统,我们在其中构建了规控算法的所有通用部分,并创建了框架。车厂在我们的架构之上编写代码,打磨自己的规模算法。”
DXP应当是目前Mobileye技术堆栈中的一大关键, Shai Shalev-Shwartz教授(Mobileye首席技术官)次日还就DXP做了专门的演讲。因为篇幅原因此处不再深入——未来有机会我们会尝试对DXP做更具体的解读。
Mobileye总裁兼首席执行官 Amnon Shashua教授
这篇文章我们只是对Amnon Shashua教授的演讲内容做了个简单的转述。总结起来他主要谈到了Mobileye现阶段已经获得的成绩和订单,解释了四大平台的进展,并且详谈了两个问题:Mobileye如何达到高MTBF(基于AI做端到端感知,加上冗余设计),以及如何在车厂差异化与自家产品通用化之间达成平衡。
这里最后给出承载上述技术与市场、Mobileye已经量产和规划中的SoC产品简单浏览——芯片层面的介绍不多,算力和功耗就看图吧。有一点值得一提,Amnon特别强调Int8算力数字并不代表一切,主要大概是因为这几个数字和英伟达Orin芯片给到的并不在一个量级。
“我们的芯片是为我们开发的软件堆栈专门设计的。它不是个单一的加速器,我们有四五种类型的加速器引擎,每种都与不同类型的软件堆栈配合。它们协同工作,构建起更为高效的系统。”Amnon说,“比如EyeQ6算力是EyeQ5的2倍,但就能做到的事情来看,EyeQ6是EyeQ5的4倍。如果我们将SuperVision的软件堆栈放在EyeQ6上跑,两个EyeQ5只能达到EyeQ6大约50%的运行效果。”“所以TOPS并不代表全部。”
就Amnon给出Mobileye现阶段的成绩解读,似乎其前景算得上一片大好。在汽车电子市场竞争如此白热化的今天,包括其中大热的ADAS/AV,这一市场内还有好些玩家都将其视作下一个百亿规模的潜在机会和目标——其中也包括中国的一批竞争者。未来市场不确定性还不小。而且汽车EE架构实则也还在演进;与此同时我们并不特别清楚在Intel Automotive的版图中,Mobileye将扮演何种角色。后续我们还会就Mobileye的业务与技术进展做更进一步的关注。