全球首起无人驾驶逃逸,背后是什么问题?

技术 发布于:2022-05-20 16:48:01

4月12日,美国旧金山。正在夜间巡逻的交警,拦下一辆电动车,原因是它在夜间行驶时没有打开车灯。

拦下车辆后,警员下车试图与司机沟通,却发现车上竟无一人。

随后,警员试图打开车门,但无功而返,准备请求支援。就在此时,这辆车突然启动并驶离现场。

车辆穿过十字路口继续行驶近百米,警车紧随其后。不知这辆“逃逸”的电动车是不是发现情况不对,再次停了下来。

这就是全球第一起『无人驾驶车辆逃逸事件』,而“肇事者”就是通用旗下的自动驾驶公司Cruise的无人驾驶测试车(车体基于雪佛兰Bolt改装)。

除了交警,现场的目击者也都很吃惊,因为大家都没亲眼见过无人车被交警拦截,甚至还会逃逸。大家都处于一种滑稽+惊恐的违和气氛中。

视频结尾,这辆无人车打着双闪停在路边,三名警察站在一旁不知所措。

Cruise的申明

目击者将该视频上传到社交媒体后,Cruise也证实了此事件。

Cruise发布声明:无人车辆与警方互动良好 ,完全服从执法,无人车并不是为了逃避警察的追捕,而是想找一个更安全的地方停下来。

Cruise还表示,目前公司正与旧金山警察局密切合作,研究今后自动驾驶车辆应该如何与执法人员互动等问题。

但对于无人车“毫无预警突然启动驶离”的情况,Cruise并没有给出解释。

要知道,按照加州的交规,天黑后不开大灯,驾驶员将会被处以罚款,并强制学习交通规则;如果是人类驾驶员,出现类似逃逸行为,重则当场拘留扣车,轻则面临一场违章指控。

而Cruise的无人车辆,连一张罚单都没有吃。

Cruise的无人驾驶什么水平?

了解自动驾驶的朋友,应该都对Cruise很熟悉。它是通用旗下专注自动驾驶的技术公司,也是无人驾驶行业的领头羊之一。

Cruise于2013年创立,3年后被通用汽车以10亿美元收购。时值自动驾驶蓬勃发展的大好时机。被通用收购后,Cruise不仅享受了通用庞大的资源,也被科技巨头们看好。截至目前,Cruise估值已超300亿美元。

手握技术、资源和财力,Cruise一路成为行业领头羊。

2020年1月,Cruise在旧金山发布了由通用、Cruise和本田公司联手打造的Origin无人驾驶汽车;2021年,Cruise在加州测试里程超过140万公里,位居行业第二,仅次于谷歌旗下的Waymo公司;今年3月,Cruise正式获得加州公用事业委员会(CPUC)颁发的Robotaxi商用许可证,开启自动驾驶出行服务的收费运营。

可以说,Cruise的自动驾驶几乎代表了行业最高的水平。通用CEO也曾自信地表示,有信心在2022年开始商业化无人驾驶乘车与送货业务。

然而,我们现在看到的现实,并不是那么乐观。

自动驾驶还存在的问题

辛运的是,这次Cruise无人车违章并没有造成安全事故,但这也只是一次侥幸,很难保证在更复杂的情况下,这还是不是一个玩笑。

说到底,Cruise无人车的违章与逃逸,是无人驾驶尚未成熟的缩影。

关于自动驾驶技术本身,我们已经聊过很多。这次,我们就谈谈无人驾驶要面临的相关法律法规、责任主体、交通伦理、社会接受程度等问题。

无人驾驶上路后,人类做好接受AI司机的准备了吗?

似乎并没有,首先法律法规就迟迟无法成型。

目前的现状是,还没有一个交通部门拥有完整的、针对无人驾驶车辆的法规,现在无人驾驶车辆与人工驾驶车辆运行同一套规则。这里就暗藏了很多问题。

譬如这一次,我们如何确保无人车辆能够在人工交警的介入下,妥善地应对交通违章?从旧金山交警这次的反应来看,应该也从未处理过类似案件,且执法内部也没有相应的标准流程可供参考。

斯坦福R42 Group成员Ronjon Nag也对此事发表看法:“很明显,警察在遇到这种情况时也很困惑,他们不知道该对无人驾驶车辆采取何种措施,需要尽快完善无人驾驶汽车的道路规范与驾驶标准。”

这里的『处理』,包括无人车技术供应商、车辆运营方和交通管理部门之间的合作,以达成一套标准高效的事故应对流程。在这个流程中,除了执法方式,对无人车辆本身的行为也要加以规范,即需要自动驾驶公司的配合。

本次事件中,Cruise无人车被拦截后,无征兆二次启动,没有任何预警动作。随后,不知道是不是再次识别到警车才靠边停车,但停车后也无后续动作,明显没有针对人工交通干涉的应对预案。

自动驾驶AI通过数据算法学习,已经能够在常规路况下行驶。但是交通事故、交警介入都是突发的非典型场景,目前的无人车依旧手足无措。

由此,还会衍生出更多的问题:如何识别警车?如何识别警员?如何让系统发出交互信号?怎么分辨交通指令是针对自己还是其他车辆?

这些难题,目前的目标行为预测与违章域都没有解决。

其次,交通法规针对自动驾驶的责任判定,仍处于相当的模糊地带。有一个很大原因,就是自动驾驶难以明确责任主体。

2018年,美国亚利桑那州,一辆Uber无人驾驶测试车撞上了一位推着自行车横穿马路的行人,导致其当场身亡。事故中,Uber的自动驾驶系统和安全员都没有及时发现受害者并进行紧急制动。

在判决结果中,Uber被判定无罪,只是承担了数百万美元的赔偿金,而安全员则因为过失杀人罪指控,还在接受进一步调查。

这还是有安全员的情况,而无人驾驶车辆,彻底连人影都没有。车辆运营方、技术提供方、车辆厂商,谁应该负责?Cruise逃逸事件中,交警没有开具罚单,可能也是因为交警不知道将罚单开给谁。

如果AI司机与人类司机道路上共同行驶,那么法律标准的公平性和准确性,就变得更加重要。它涉及到法规对技术的限制、公众对法律权威的信任和对新技术的接受。

技术与政策是并行发展的,但事实告诉我们,它们的速度可能并不一致。

另一个很容易被忽略的问题:法律之外,社会接受程度与交通伦理。

我们乐观一点,假设未来自动驾驶/无人驾驶将会取代人工驾驶。在这美好愿景实现之前,总有一个阶段需要人类司机和AI司机共存。

此时相安无事最好,但一旦事故该如何处理?

其它交通参与者(无论是乘客、行人,还是自己开车),在道路上与无人车遭遇时应该怎么应对?行驶优先权是否相同?发生事故纠纷时,人类和AI是否有一个基础共识?承担责任的能力是否相同?

著名的电车难题,AI能给出更好的答案吗?如果有答案,能否保证不同品牌、不同技术供应商的车辆,能够在这些伦理决策上保持统一?

如果无法做好这些平衡,那么人类交通参与者难免会恐惧、抵触无人车。新技术在寻求突破的同时,应该也考虑人们如何接纳新技术。

你可能会说,这些都是杞人忧天。自动驾驶/无人驾驶远比人类更安全,人类能做到的事,AI也能做到。

但相对安全,不是绝对安全。据加州交通管理局DMV的最新数据显示,2021年加州自动驾驶共发生117起事故,其中Waymo涉及64 起,Cruise涉及30起,Zoox 9起,苹果无人车5起,文远知行3起,小马智行2起,Lyft无人车1起。这些都还是测试结果,现实环境更加复杂。

我们都承认,无人驾驶将打开出行领域的新想象。

但上述问题依旧是无人驾驶的脚镣,解开它们之前,无人车只能停留在科技公司的愿景里,而不是真正走进社会。

自动驾驶分级,是一记响亮的屁

说到自动驾驶,我们总是会想起分级。

目前,自动驾驶领域普遍采用SAE(国际汽车工程师协会)的6级划分标准,其中L1~L2为辅助驾驶与初级自动化;L3为有条件的自动驾驶;L4为高度自动化驾驶;L5为完全自动驾驶。

但事实上,这个分级仅仅是个参考,而且是参考性很弱的参考。没有任何一个国家或地区,依据这一标准出台相关法规。

所有厂商都会强调,在所谓的L5级之前,系统在特定运行条件下可持续执行动态驾驶任务,但要求驾驶员注意力集中,随时准备接管车辆。

因为这个原因,现在提供『半自动驾驶/辅助驾驶』技术的厂商,都会在使用说明中强调免责声明,将大部分责任推给驾驶员。

但是,保持注意力与随时准备接管,这两点其实就已经与自动驾驶的初衷相悖。自动驾驶应该让驾驶员更加放松,怎么反而让驾驶员更加紧张呢?

所以在笔者看来,自动驾驶其实就两个分级:除了无人驾驶,剩下都是辅助驾驶,不存在限定条件的自动驾驶一说。而辅助驾驶的主要作用,就是在简单路况下,缓解驾驶员长时间驾驶的疲劳。

之所以这么“武断”,全是因为安全。

所谓『有条件的自动驾驶』,是一种有极大误导性的说辞,因为这里『条件』的解释权全都在厂商,为了产品包装,厂商甚至会造出L2+、L2 Plus、L2.5这些概念,实际上不过是辅助驾驶的功能升级。

满足『条件』出了事故,厂商负责;但是厂商就敢赌,你满足不了『条件』。因为数据不透明,且数据解析权也在厂商手里,所以厂商想怎么说就怎么说,但凡出现事故,厂商给出的结论几乎都是:责任在人。

因此,关于辅助驾驶功能。笔者的建议是,在路况良好的条件下,你可以尝尝新技术带来的新鲜感,或者使用部分功能缓解你的驾驶疲劳,但是不要相信辅助驾驶系统可以完全替代你,它承担不了这个责任。

急功近利,适得其反

在辅助驾驶功能上,我们已经可以实现Feet-Off、Hands-Off,但是我们还没有实现Eyes-Off——没有一家公司,敢让驾驶员闭着眼睛开车。而完全自动驾驶则是Mind-Off,这个技术跳跃是一种质变。

我们距离所谓Mind-Off,恐怕还有相当长的距离。

如果说自动驾驶是一场技术狂欢,那政策法规,就是这场Party的主办方。在未来实现之前,可以期待,但不要幻想。

(图/文/摄:皆电 唐科)

+1
评论 收藏