对于社会大众来说,他们希望,自动驾驶汽车能遵循比人类驾驶员更为严格的标准。就在上周,Elaine Herzberg女士在美国亚利桑那州不幸被一辆处于自动驾驶模式的Uber汽车撞倒,最终抢救无效身亡。在这场悲剧发生之后,真的是时候思考一下传感和决策对于安全的意义了。
首先,我们当前所面临的一大挑战就是解读传感器信息。从警察公布的视频中似乎可以看出,即便检测和分类对象的能力是自动驾驶汽车系统中最基本的构建模块,但其实,这也是一项极具挑战性的任务。然而,这种能力是当前高级驾驶辅助系统(ADAS)的核心,该系统囊括自动紧急刹车(AEB)和车道保持等功能。数十亿英里的行驶里程足以验证,ADAS中的高精度传感系统正在挽救生命。同样地,在克服更大的挑战之前,这种技术也是未来全自动驾驶汽车所需要的基本要素。
为了证明当前ADAS技术的能力和精妙之处,我们在TV监视器的视频中运行了Mobileye的软件,这台监视器播放了警方提供的事故片段。尽管状况不佳——有可能很多事故现场的高动态范围数据已丢失,但Mobileye的软件依旧在撞击前大约1秒的时候,就清晰的检测到了。下方的图片展示了三张快照,上面检测到的自行车边界框和Herzberg女士。该检测有两个独立运行的来源:模式识别(产生边界框)和一个“自由空间”检测模块(产生水平图,其中红色部分表示红线上方出现了一名“路人”)。利用运动结构(技术术语为“平面+视差”),第三个模块可以区分道路和物体。这样就验证了检测到的物体是3D的,但可信度较低,因此被描述为“fcvValid: Low”,而显示在屏幕左上方。出现低可信度是因为,此处缺失生产型车辆通常可用的信息,并且图像质量较差,毕竟,在行车记录仪拍摄的视频基础上再次拍摄,可能会存在某些未知的缩减采样。
图像来源于警方公布的TV监视器上的视频片段。重叠的图像显示了Mobileye ADAS系统的响应。绿色和白色边界框是自行车和行人检测模块所输出的结果。水平图显示了道路和障碍物之间的边界,我们称之为“自由空间”。
此次实验所使用的软件与当前配备ADAS的车辆采用的软件相同,并已经在数十亿英里的用户行驶里程中得到了验证。
现在,像深度神经网络等人工智能技术的发展,让很多人认为,高精物体检测系统已经可以被轻松地开发出来,而那些计算机视觉专家十几年
的经验则被视为大打折扣。这使得很多新手涌入这一领域。虽然这些新技术的确有用,但很多传统依旧不能忽略,这包括识别和完成数百次极端情况的测试、对数千万英里数据集的注释以及在数十个ADAS项目上进行极具挑战性的试生产验证测试。经验至关重要,尤其是在安全为先的领域。
对事件的第二个观察是透明度。人人都说“我们把安全放在最重要的位置”,但我们认为,要想获得公众信任,就必须更加透明。正如我在去年10月在Mobileye发布责任敏感安全模型(RSS)时所说,决策必须符合人类判断的常识。我们将“危险情况”和“正确响应”等常识概念做了数学公式化设计,并建立了一个从数学上确保符合定义的系统。
第三个观察则是冗余。真正的感知系统需要有冗余设计,而且,必须依赖于独立的信息源:摄像头、雷达和激光雷达。把这些信息源整合起来,有助于提高驾驶舒适度,但不利于安全。为了展示我们获得了切实的冗余度,Mobileye开发了独立、仅摄像头的端到端系统以及独立的激光雷达和仅雷达系统。
如果类似上周的事故再次发生,用户本来就很脆弱的信任,将会被进一步降低,并可能引发被动监管,最终扼杀这项重要的工作。正如我在介绍责任敏感安全模型时所说,我坚信,现在就需要对全自动驾驶汽车的安全验证框架做出有意义的讨论。我们邀请汽车厂商、该领域的技术公司、监管部门以及其它相关各方一起解决这些重要问题。
本文作者:Amon Shashua教授 英特尔公司高级副总裁以及英特尔子公司Mobileye公司首席执行官兼首席技术官。