在地平线(HorizonRobotics)联合战略管理咨询公司罗兰贝格(Roland Berger)发布的《智能座舱发展趋势白皮书》中,智能座舱被定义为主要涵盖座舱内饰和座舱电子领域的创新与联动,是拥抱汽车行业发展新兴技术趋势,从消费者应用场景角度出发而构建的人机交互(HMI)体系。
而近期座舱智能化之所以能成为汽车智能化发展的重点,一方面原因在于随着消费者需求层次的不断提升,其对汽车的需求已经从单一的出行工具逐步转变为生活中的“第三空间”,而且他们会逐步将对手机应用的喜好迁移到车载娱乐信息系统上,如导航、音乐、视频、社交功能等,甚至有近50%的中国消费者愿意为数字座舱类体验付费。
另一方面则源于进入2019年后,自动驾驶商业化遇到了不小的挑战,从通用的Cruise到谷歌的Waymo,都推迟了高级别自动驾驶功能的商业落地时间,停留在“路试”或“商业化试运营”阶段。
这是因为自动驾驶的落地不仅要突破自动驾驶域的相关技术,如高算力/低功耗/高功能安全等级要求的AI芯片、视觉感知的技术瓶颈、固态激光雷达的量产和降本、高精地图和高精定位、复杂的感知/决策/控制系统实现等,还需要整车级别的配套升级,例如底盘执行系统的线控和冗余、电子电气架构的升级等,甚至在监管和法规方面也需要配套升级。
而智能座舱功能的落地尽管要整合多个屏幕显示(中控、仪表、抬头等)、驾驶员监控、车联网、娱乐系统及部分辅助驾驶功能,但总体来说,由于不涉及底盘控制,安全压力小,技术实现难度低、成果易感知,有助于迅速提升产品差异化竞争力。因此国内OEM在等待自动驾驶关键技术成熟的档口,开始逐步将精力转移到智能座舱的落地。
智能座舱的演进与趋势
从“电子座舱”到“智能助理”,再到“人机共驾”,直至最终实现“第三生活空间”,智能座舱发展的四个阶段正变得逐渐清晰起来。
- 阶段1:电子座舱——电子信息系统逐步整合,组成“电子座舱域”,并形成系统分层
在这一阶段,为了满足用户对车载交互体验的新需求,车载中控屏正向高清化、大屏化方向发展,原先的其他显示方式也逐步被“显示屏”替代,如仪表、后视镜被高清液晶仪表、流媒体后视镜替代。此外,很多新的显示方案也开始在座舱中普及,如抬头显示(HUD)、增强现实(AR-HUD)等
- 阶段2:智能助理——生物识别技术应用,催生驾驶员监控系统迭代,增强车辆感知能力;消费者对车辆智能化功能的期望不仅仅局限在自动驾驶与人机交互。
比如智能座舱系统通过独立感知层,能够拿到足够的感知数据,例如车内视觉(光学)、语音(声学)以及方向盘、刹车踏板、油门踏板、档位、安全带等底盘和车身数据,利用生物识别技术(车舱内主要是人脸识别、声音识别),来综合判断驾驶员(或其他乘员)的生理状态(人像、脸部特征等)和行为状态(驾驶行为、声音、肢体行为),做到“理解”人。
- 阶段3:人机共驾——语音控制和手势控制技术突破,车内软硬件一体化聚合,实现车辆感知精细化;车辆可在上车-行驶-下车的整个用车周期中,为驾乘人主动提供场景化的服务,实现机器自主/半自主决策。
这一阶段关键的驱动因素包括三方面:在电子控制单元(ECU)向域控制器(DCU)的电子架构过度中,车载影音娱乐底层硬件的计算能力快速增强,得以支持一芯多屏;自动驾驶辅助系统(ADAS)的丰富功能增加了驾驶员处理信息的难度,在面临即时性信息处理的需求下,更加需要智能交互与显示;以及AI引擎逐步成熟,大幅提升了智能化体验。
- 阶段4:第三生活空间——未来汽车使用场景将更加丰富化和生活化,基于车辆位置信息,融合信息、娱乐、订餐、互联等功能,为消费者提供更加便捷的体验。
而除了前文谈到的近期座舱智能化成为汽车智能化发展的重点外,另外三个值得关注的趋势则包括:车辆视觉感知“由外向内”发展,车内感知需求日趋强烈;触摸屏不是交互的“终点”;多模交互要求整合分散的感知能力,催生出“独立感知层”。
例如得益于触控屏幕材质和技术的显著提升(LCD-OLED)、GPU对复杂图像快速处理能力的提升、声音取代屏幕成为新交互方式等,车内视觉感知能够有效支持座舱多样功能和自动驾驶功能的实现。未来,智能座舱的HMI设计也不会局限于触屏交互,而是结合车外环境、车内视觉、语音识别、AR等多种感知手段的多模交互。车载主芯片之外也有可能建立独立的AI计算,即通过使用单颗性能出众的AI感知芯片,实现车外/车内视觉感知及语音识别等多模感知算法。