为何自动驾驶事故频发?

技术 发布于:2020-07-28 14:57:05

6月1日,中国台湾省嘉义县,一辆特斯拉Model 3在高速行驶时,径直撞向一辆翻倒在公路上的大卡车。监控显示,白色卡车侧翻在地,同车道Model 3直奔卡车冲来,没有丝毫减速。当天天气晴朗,视野良好,站在隔离带旁的卡车司机朝Model 3挥手致意。即便如此,这辆Model 3也没有及时刹车,结结实实地撞向卡车。

有多少人死于“虚假宣传”?

事后当地交警公布称:“司机表示,车辆行驶时开启了特斯拉的Autopilot功能,将车速固定在了110km/h,途中分神,没有将注意力集中在车辆和道路上。最后导致事故。”

——————

6月24日,深圳市南坪快速东行方向,一辆Model 3与试图并道的渣土车发生碰撞。特斯拉车主称,自己的Model 3在开启Autopilot状态下跟车,但车辆未能识别到侧前方并线的渣土车,不仅没有采取制动或避让措施,还加速直接撞了上去。

有多少人死于“虚假宣传”?

特斯拉对事故车辆进行调取分析后表示,事发时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。最后判定为车主操作不当,而非Autopilot的问题。车主对特斯拉的结论表示质疑,提出异议。

——————

7月14日,美国亚利桑那州,一辆黑色特斯拉Model S在本森附近的10号州际公路上与警车相撞,继而导致警车与一辆救护车发生连环追尾。车主是一位来自加州尔湾市的23岁男子,他事后表示,车辆发生碰撞时,他正在使用特斯拉的Autopilot功能。

有多少人死于“虚假宣传”?

短短一个多月时间,接二连三的事故,全部都与Autopilot有关,这也让特斯拉的“自动驾驶”再次被推上风口浪尖,受到众多消费者的质疑。

就在7月,德国一家监督机构Wettbewerbszentrale,针对特斯拉Autopilot提出了“虚假宣传”的指控,并将此案提交给了德国法院,称特斯拉使用的术语或字眼在自动驾驶辅助系统方面误导了公众。德国法院判定指控合理,随即禁止特斯拉在其德国网站及其他德国广告中使用带有“完全自动驾驶功能”的字眼。

这已经不是特斯拉的Autopilot第一次受到监管部门的关注了,就在今年2月份,美国国家运输安全委员会(NTSB)公开抨击特斯拉未能有效防止司机滥用Autopilot系统,并表示特斯拉对自动驾驶辅助功能缺乏系统保障。

那么问题就来了:特斯拉是不是虚假宣传呢?

回答这个问题之前,我们先来看看自动驾驶的分级定义。目前业内公认的参考,是SAE International(国际汽车工程师协会)在2014年提出的自动驾驶汽车分级标准:

有多少人死于“虚假宣传”?

我们来细看各个级别的定义(熟悉该定义的朋友可以跳过这一段)

——Level 0级,纯手动机械驾驶,仅有基本的安全提示,ABS(自动防抱死)安全配置都没有,这类民用车已经很少见了。

——Level 1级,配置了诸如AEB(自动紧急刹车)、ABS以及ABS基础上升级的ESP(车身电子稳定系统),还有高速路段常用的定速巡航、ACC自适应巡航功能(安全车距保持)。这是目前最常见的辅助驾驶配置,当然,部分安全功能需要选配。

——Level 2级,如果说L1级是纵向控制,那么L2级就是开始引入横向控制,如LKA(车道保持)、主动变道等功能。此时汽车主要是减少驾驶员的操作负担,大部分情况下,驾驶员还是要接管方向盘。

——Level 3级,进一步脱离人类依赖,能够自适应驾驶路况,根据导航选择道路,主动变道超车,能够自行判断行驶条件,并决定是否将驾驶权交还驾驶员。此时,驾驶员还是要实时监控路况。

——Level 4级,已经可以实现完全自动驾驶,能够应付绝大部分路况,行驶过程中无需驾驶员介入,输入地点和导航信息即可上路,在极特殊的情况下会提示驾驶员接管车辆。L4相对于L3,是一个本质的跨越,汽车和司机的身份开始发生转变,汽车由辅助系统变为真正的司机,人类则由司机变为乘客。

有多少人死于“虚假宣传”?
不再需要实时监控路面

——Level 5级,全天候自动驾驶,无论什么天气环境、什么路况都能应对自如,甚至能够在驾驶员无反应的情况下做出自主判断,做到像大脑一样思考和学习,此时,汽车完全抛弃方向盘、动力、制动踏板,人类彻底成为乘客。这是自动驾驶的终极目标。

当然,上述分级只是一个参考标准,并非所有的车企都是按照这条线路前进,但从自动化进程来看,技术是沿着辅助驾驶-条件自动驾驶-高度自动驾驶-无人驾驶的方向前进。到目前为止,大部分车企都停留在L2,少部分车企开始探索L3,自动驾驶研发公司(非量产车)则朝着L4努力。

那特斯拉的Autopilot是什么水平呢?

我们以最新的Model 3为例,Model 3最新的Hardware 3.0标配8颗摄像头,1颗毫米波雷达和12颗超声波传感器。至于激光雷达,特斯拉直接选择无视(这也导致了一些问题,我们稍后会说到)。

Model 3的8颗摄像头,有3颗摄像头负责前方视野,剩下5颗摄像头则负责监控车辆侧面和后方。此外,Model 3还整合了处理能力增强版的1颗前视雷达,为车辆提供额外的环境数据,同时在雨雾、砂尘等天气充当安全冗余。

有多少人死于“虚假宣传”?

至于那12颗超声波传感器,虽然工作半径较短,不过它能在任何速度下稳定工作,主要是针对车辆控制盲区时使用。关于车辆方位的确定,特斯拉依靠的是GPS。

除了传感器方面的支持,Hardware 3.0还有一颗心脏——FSD芯片。它用上了两块自研SoC,两块GPU,两块神经网络处理器和一块锁步CPU。为了提升神经网络处理器的存取速度以提升计算能力,每颗FSD芯片内部还集成了32MB高速缓存。

有多少人死于“虚假宣传”?

从特斯拉官方公布的数据来看,Autopilot HW 3.0能够处理来自8路摄像头同时工作产生的每秒2300帧图像,总算力达到了144TOPS。这样的性能无论是在车载运算系统,还是消费级电脑中,都算是顶尖级别了。

除此之外,特斯拉Autopilot还有一个秘密武器——影子模式。它的原理是,当特斯拉的Autopilot处于开启状态时,传感器会从后台探测车辆行驶道路周围的数据。人们驾驶时,机器能够学习人类驾驶员的驾驶操作,从而达到提升自动驾驶能力的目的。自2015年特斯拉开始在车辆上搭载Autopilot硬件以来,影子模式已经后台行驶超过30亿英里。

有多少人死于“虚假宣传”?

这些从真实公路上采集的数据,在经过筛选清洗标注后,被用于训练深度学习的算法,算法再被进一步封装,以 OTA 的方式装载到用户车载计算机的芯片上。数据-算法学习-更多数据-更优算法,这就是特斯拉Autopilot实现自动驾驶的方式。

那么这些技术能为特斯拉带来什么具体功能呢?

我们来看看那特斯拉的官网是怎么描述的:

有多少人死于“虚假宣传”?

官方给出的定义是:车辆能够根据其他车辆与行人,在行驶车道内自动辅助实施转向、加速和制动;能够在高速公路上自动辅助变换车道;能够自动驶入和驶出高速公路匝道或立交桥岔路口,超过行驶缓慢的车辆。同时还将推出:识别交通信号灯和停车标志并做出反应;在城市街道中自动辅助驾驶等功能。

我们可以看到,特斯拉在功能描述中,多次强调『辅助』这个词,似乎在说明它只是驾驶员的辅助功能,但是在该系统的说明中,官方又将其定义为『完全自动驾驶能力(Full Self-Driving Capability)』,一个『辅助』,一个『完全』,确实容易让人产生歧义。这是第一个问题。

——————————

再来,我们根据特斯拉对于Autopilot的功能描述描述,再回到之前自动驾驶的定义去对号入座,可以发现Autopilot充其量也只达到L3级别的自动驾驶能力,距离L4级自动驾驶还有不少的距离。而这里,就是第二个问题,也是Autopilot的尴尬之处——

除非满足一定条件,否则L3系统会采取『提示驾驶员接管』的方式移交车辆控制权。然而从系统发出提示,到驾驶员真正接管的这段时间内,人类和机器两种责任主体实际上同时存在于驾驶过程中。也就是说,L3 在实际应用中,反而将自动驾驶的控制权复杂化了。

复杂的责任主体会带来一个后果——发生紧急情况时,确定新行为承担者的过程会变得远比L1/L2或L4/L5更为复杂。L1/L2作为辅助驾驶功能,其本质意义在于减轻司机在驾驶过程中的负担,说白了就是『让你开起来没那么累』,驾驶主体还是在人;L4/L5则能够高功能地接管车辆,实现自动驾驶,也就是『让你开起来不用操心』,驾驶主体转移到车。

而L3呢?在L3级自动驾驶下,驾驶员虽然可以撒手,但又要随时准备接管,这样时刻戒备的状态本身就违背了自动驾驶的初衷。一旦系统允许驾驶员放开方向盘,司机从高度集中的驾驶状态中脱离出来之后,要突然重新集中注意力来接管车辆,需要一段反应时间,而这段反应时间就是最容易出现事故的,多个真实案例也说明了这个问题。

——————————

况且,Autopilot的功能并没有达到它描述的那么完美。

自动驾驶涉及的方面太多,基本操作有车速、转向、刹车等,传感器至少有雷达、摄像头和GPS,为了乘客舒适度和车身稳定,还有惯性加速度传感器、三维陀螺仪等传感器。中间的处理单元就更加复杂了,涉及计算机视觉、实时操作系统、精准定位等多个方面。

我们都知道,一个系统越复杂,出错的风险就更大。我们已经有案例,来自McAfee的研究报告显示,技术人员用胶带横贴在时速「35」英里限速标志「3」数字正中间,这小小改变导致车辆误判速限为「85」英里,随即车辆的Cruise Control System自动加速到超速。针对于特斯拉这样重点依赖视觉摄像头的方案来说(无激光雷达),各种视觉欺骗、激光照射、不规范的交通信号标识,都将成为导致事故的隐患。

有多少人死于“虚假宣传”?

就拿深圳这一起事故来说,特斯拉Autopilot识别加塞的逻辑,是需要前车车身或车尾的二分之一进入本车道时,系统才会认为是这是一次加塞。在本起事故中,大货车大约有六分之一进入了特斯拉的车道,无法判断是否达到加塞阈值,但是庞大的车体已经对车道进行霸占。

并且,特斯拉侧面主要依靠摄像头来进行识别,而摄像头只能够看到大货车的局部特征,无法判断大货车是不是一辆车、是多大一辆车,这就造成了视觉识别失误。

有多少人死于“虚假宣传”?

至于超声波雷达在这次事故中也存在可能漏判。大货车的车轮驶进车道时,车轮经过,雷达系统会认为有障碍物。但由于大货车底盘高,当车轮通过后,雷达又会判定没有障碍物,系统此时可能过滤掉了超声波雷达的监测结果。

有多少人死于“虚假宣传”?

此时,传感器无法准确识别现实环境,而计算机基于有限信息进行的判断,自然与实际情况不相符,进而导致了这起事故。

再说台湾的例子。一般来说,自动驾驶公司在开发视觉感知时,基本上采用深度学习技术,这项技术具备迁移和泛化特点,简单来说,就是举一反三的能力。

由于Autopilot对这起事故中翻倒的大货车没有识别经验,系统经验检测不出来这是一辆车,甚至在白色的反光下都不能准确判定是否为障碍物。于是Autopilot没有采取任何躲避措施,直直地撞了上去。

有多少人死于“虚假宣传”?

2016年佛罗里达的高速公路上,几乎是同样的情景,一辆Model S直接撞上一辆拐弯中的货车,结果如出一辙。遗憾的是,驾驶员在那起车祸中丧生。

有多少人死于“虚假宣传”?

所有的视觉检测任务,都是先有完整的场景需求,然后根据场景需求进行算法设计,而算法都是有局限性和边界的。这便是特斯拉Autopilot和许多依赖视觉检测方案的天然缺陷(没有激光雷达)。这种缺陷体现到大货车的视觉检测上,就更为明显。

因为大车的异型车辆种类非常多,小车无非是SUV还是轿车的区别。但大车种类丰富,包括有拖挂车、平板车、水泥罐车等,尤其是近距离大货车视觉检测,摄像头往往只能看到车辆的局部,更加难以判断车辆。

有多少人死于“虚假宣传”?

再加上这些大货车在道路上出现的频率相比小车来说要低很多,没有足够的机会去收集足够数据并进行训练学习。Autopilot想要实现真正的自动驾驶,这些问题都是必须要解决的。

——————————

最后总结一下,特斯拉Autopilot的技术水平在业内属于第一梯队,在真实道路中也具备一定的实用性,但是:(1)特斯拉对Autopilot的宣传,让消费者容易产生理解误差;(2)Autopilot的功能定位也暗藏使用逻辑上的矛盾;(3)Autopilot对视觉系统的依赖,还存在某些未攻克的难点。所有这些加起来,就导致驾驶员在过分相信Autopilot时事故频发。

在这里,我们不赞成车企为还未实现的技术进行前置宣传,因为这很容易对消费者产生误导。如果车企的自动驾驶系统无法处理所有的场景,那就应该明确告知消费者该功能的局限性,而非夸大宣传。此外,本土化适应性也是需要解决的问题,针对中国道路的复杂性和国人的交通习惯,特斯拉或许应该采用更加保守算法,同时更加注重对车主的教育宣传。

自动驾驶确实是未来的技术发展方向,但就目前而言,市面上能够使用的“自动驾驶”或“辅助驾驶”功能都脱离不了驾驶员的操作,大家在驾驶时仍需集中注意力,切勿过分相信某些功能。道路千万条,安全第一条。

最后,我们回到文章开头的问题『特斯拉的自动驾驶是不是虚假宣传呢?』

写到这里,笔者不禁想到另一个大家熟知的食物:

有多少人死于“虚假宣传”?

以上。

(图/文/摄:皆电 唐科)

+1
相关标签:

技术快讯

唐科

简介:不喜欢汽车的摄影师不是好铲屎官,喵!

评论 收藏