无人驾驶首例致死车祸:AI还能被信任吗?通信

腾讯科技 2018-05-11 09:17
分享到:
导读

这是史上首例自动驾驶车辆在公开路面撞伤行人致死的事故,从当时车内监控到的录像可以看到,司机在事故发生前正低头,可能是在查看手机,并没有保持对前方路面的专注,当他意识到事故发生时,已来不及采取措施,最终酿成悲剧。

  0.jpeg

就在Waymo的交通事故发生几天后,Uber3月18日发生的一起完全自动驾驶汽车致死事故也查明了真相――Uber的无人车传感器已经探测到这位正在横穿马路的行人,但自动驾驶软件没有在当下采取避让措施。

这是史上首例自动驾驶车辆在公开路面撞伤行人致死的事故,从当时车内监控到的录像可以看到,司机在事故发生前正低头,可能是在查看手机,并没有保持对前方路面的专注,当他意识到事故发生时,已来不及采取措施,最终酿成悲剧。

u=3846806923,3942845957&fm=173&app=25&f=JPEG.jpeg

事故的发生使得一向对自动驾驶技术持谨慎观望态度的民众更加焦虑,不是说机器比人类更善于准确测量、不知疲倦,更能规避风险的吗?机器和人类共享方向盘为什么没有达到想要的结果?AI技术是否足够安全,自动驾驶究竟还能被信任吗?

为什么探测到行人,软件却没有采取避让?

车道上出现或物或人的障碍,是无人驾驶汽车最常需要应对的紧急事件之一。但令人不解的是,这次事故中,Uber在时速30多公里的情况下都没有及时响应,难免不让人质疑其技术能力。

0-3.jpeg 

Uber无人车检测到了行人,但选择不避让

首先,车顶的激光雷达即使在夜间也能辨认几米到几十米范围内出现的障碍物,并将信息传递给“大脑”整理图像;其次,毫米波雷达也没有做出单方面决策紧急刹车,甚至直到撞倒行人都没有决策。

早在事故发生时,路透社就有报道称,Uber基于沃尔沃XC90车型改装的自动驾驶测试车大幅消减了用于测试车配备的激光数量,车辆前、后两侧的激光雷达从5个减少到只剩车顶的1个,取而代之的,是Uber将这类测试车型的360°雷达传感器从原来的7个增加到10个。同时,还将摄像头数量从20个减少到了7个。

u=1600888853,2433457337&fm=173&app=25&f=JPEG.jpeg

这个调整导致的结果是,车的利润提高了,但同时安全性也被降低,使得车辆容易出现扫描盲区,无法完全检测到行人。

激光雷达最为人诟病的地方就在于昂贵的造价,但它比摄像头更靠谱的地方是,其反馈给计算机的数据能够很快被读取,摄像机则有可能被镜头中出现的障碍物,例如石头、路标所愚弄,甚至光线也会影响其判断。

自动驾驶领域,Uber是晚到者,但也是激进的追赶者。它跳跃式的追赶步伐业界有目共睹。

2015年,Uber从卡耐基梅隆大学机器人研究所挖走了50多名工程师,并收购了地图行业创业公司deCarta;之后,又以30亿美元的高价再次收购诺基亚的地图产品Here;紧接着,重金买下微软旗下的必应地图。2016年,Uber花费6.8亿美元收购无人驾驶创业公司Otto。

很快,2016年5月,Uber官方就公开了无人驾驶汽车的测试照片。同年9月,经过18个月的测试,Uber在匹兹堡投放了第一批自动驾驶车辆试运营,尽管每辆车上都有两名员工跟随,但这一做法还是引发了争议。

2016年12月,Uber自动驾驶出租车在旧金山试运营,因加速闯红灯被加州车管所登记。随后,Uber将车辆和整个测试计划转移到政策更宽松的亚利桑那州。

要知道,即使在对自动驾驶测试申请最开放的加州,也要求经过测试,缴纳保险金后才能获得牌照,但在亚利桑那,无需特殊许可,只要进行标准车辆登记,无人车就可以上路了。

2017年2月22日,Uber开始正式在亚利桑那州坦佩市使用沃尔沃XC90 SUV运营无人驾驶专车服务。

u=1247669741,3637600536&fm=173&app=25&f=JPEG.jpeg

五年来,Uber不断烧钱扩张,但结果却事与愿违,不仅海外市场屡次碰壁,美国国内的市场份额也不断下滑。为了摆脱高昂的人力成本,Uber的无人驾驶从一开始就朝着速度狂奔而去,忽视了安全问题。结果,在亚利桑那州上路不到一年,Uber自动驾驶就因各种交通事故被接二连三曝光。

根据数据显示,Uber的无人驾驶车辆在测试的过程中,每行驶1英里(1.6千米)就需要驾驶员接管一次,而Waymo平均5128英里(约8253千米)才需接管一次。虽然测试地点和方法有所区别,但相比Waymo的谨慎稳健,Uber对于整套技术流程不够严密把控的态度似乎更令人心寒。

如果人类驾驶员是软件失灵后的第二重保障,为什么依然失效了?

理论上,将具有决策能力、经验丰富的司机和一台擅长侦测规律、精准测量的智能机器放在一起,是最佳组合。这也是当前许多自动驾驶团队所采用的循序渐进的发展路径之一:自动驾驶软件负责临时接管,一旦遇到突发状况,系统将立即提醒驾驶员回到座位做紧急处理。

但无论是试验探索还是路面实操,人类干预似乎都没有达到预期的效果。

不同于循序渐进的阶段推进,谷歌的Waymo在自动驾驶技术方案上坚持一步到位,倡导“直接跨越”,他们甚至将人类对自动驾驶软件的过度依赖视为“愚蠢的行为”。

b17eca8065380cd724963f55ad44ad34588281fa.jpg.gif

谷歌不是空说无凭。早在其2015年10月公开的一份月度报告中,就能看到谷歌员工在被授权经过高速路段可以启动自动驾驶功能后的行为。

由于当时的系统还处于早期研发阶段,谷歌还特意提醒员工,要时刻保持对车子和路况的关注。但从回放的录像来看,“大部分人的注意力都从方向盘上移开了,他们做着简单放松活动,享受这片刻的自由。有的人甚至完全离开了驾驶员座椅,爬去后排座椅上找手机充电器”。

同样的情况还发生在特斯拉身上。2016年5月,一名美国佛罗里达州的Model S车主在使用特斯拉“Autopilot”模式时发生事故,导致汽车撞向卡车,车主不幸身亡。

u=2177965002,3168192592&fm=173&app=25&f=JPEG.jpeg

当时,特斯拉就对此次事故发表意见:Autopilot功能与飞机的自动巡航类似,可以在条件合适的情况下使用。但是,“司机仍然要对汽车负责,也是汽车的最终控制者”。

2017年10月31日,谷歌旗下无人驾驶汽车部门Waymo CEO John Krafcik对外宣布,公司将放弃开发辅助驾驶技术,“我们发现这样做后果很严重。因为驾驶员会丧失情境感知能力,很难接管汽车”。

这也是谷歌为什么坚持避开自动化路线的原因,它有可能导致驾驶员的注意力从道路上转移,当他的注意力完全游离时,就无法再对驾驶中的关键信息做出迅速反应了。

因而,在Waymo Chrysler Pacifica汽车内,乘客只有两种选择:按下按钮,开始旅程;按下按钮,让汽车靠边停车。

b90e7bec54e736d1e21511b097504fc2d5626900.jpg.gif

十年磨一剑,谷歌谨慎的态度和常年研发投入,的确为自己换来了无人驾驶技术领跑者的地位以及还不错的安全成绩。

从2009年启动无人驾驶计划到今天,Waymo已经卷入30起小型撞车事故,但只有一起事故的肇事方是Waymo。此外,上周在美国亚利桑那州钱德勒市发生的一起交通事故经查明,Waymo也非事故肇事方。

u=144395663,3948975829&fm=173&app=25&f=JPEG.jpeg

技术往往会让人陷入惰性。根据通用汽车和美国联邦公路管理局对12名测试者展开的一项研究显示,在近3个小时的技术辅助驾驶测试中,人们会不自觉地打电话、发邮件甚至到后座拿东西,33%的注意力都不在道路上。而在实际路况中,任何一丁点的疏忽,都可能在极端情况下酿成苦果。

但直到今天,究竟人与软件共享方向盘的渐进式路线更靠谱,还是无人驾驶自动化一步到位更安全,都没有胜负定论。我们唯一能够确定的是,人类始终无法在交通技术的革新中规避风险,只能尽可能降低危险系数。

危险时保护车主,还是保护行人?

无人驾驶汽车上路或许引发的将不只是法律适用的问题,当我们把判断权转移给计算机系统,就会牵涉到不少道德和伦理困境。

美国《Science》杂志此前做过一个无人驾驶汽车道德困境的社会调查,结果显示,受访者认为,无人驾驶汽车车主应该选择最小化对他人的伤害,即使会致使自己受伤。但当问及会选择购买“车主保护优先”还是“行人保护优先”的无人驾驶汽车,受访者更倾向于购买“车主保护优先”的。

这是早已存在的由哲学家菲利帕・福特(Philippa Foot)提出的“电车悖论”。一辆失控的电车可以通过拉拉杆做出一个选择,要么冲向5个人的轨道,要么冲向1个人的轨道。这种情况下,该如何选择?

u=1879304067,2947447360&fm=173&app=25&f=JPEG.jpeg

《玻璃笼子》的作者尼古拉斯・卡尔(Nicholas Carr)就曾在书中质疑,“当无人驾驶发生事故并造成人员伤亡时,应该怎样定罪及谁来承担责任?由车主承担,由安装自驾系统的汽车制造商承担,还是由编写软件的程序员承担?只有解决了这些棘手的问题,全自动汽车才能进入经销商的展厅”。

2017年8月底,德国交通运输与数字基础建设部下属的道德委员会公布了一套被称为世界上首部的自动驾驶道德准则――或许可以作为这个问题的参考。

这套由科学家和法律专家共同提出的15条自驾系统的驾驶决策道德准则的核心原则是:生命应该始终优先于财产或动物。其中明确,人类生命一定是首要任务,在事故无可避免的情况下,人的生命要比其他动物、建物都还重要。

也就是说,引导汽车的智能软件在必要时会对人类和动物的生命价值进行量化比较,以便于无人驾驶汽车在应对将要发生的事故时做出恰当的反应。

但是,规范中也提到,自驾系统不得以任何年龄、性别、种族、是否残疾等条件,作为“牺牲”和“获救”的判断选择标准――因为人类的生命都是平等的。但也正因为“平等”,自动驾驶系统的选择难度似乎就更大了。

对此,谷歌自动驾驶负责人在2015年时就表示,危机情况下,谷歌无法决定谁是更好的人,但会努力保护最脆弱的人。

美国初创无人驾驶公司NuTonomy的首席执行官卡尔・艾格尼玛(Karl Iagnemma)的观点很实际,“无人驾驶汽车的扫描手段无法区分路人的年龄或汽车中的乘客数目。所以即使人们想给无人驾驶汽车增添道德模块,目前的技术能力也还达不到”。

目前,工程师只能给汽车编程使其能够做出简易的道德行为,比如在检测到前方有自行车之后会减速行驶。

对不同人的生命做出排序是一个无法避免的问题。不同于我们所谈论的“电车悖论”需要人在紧急情况下有所作为,无人驾驶的行为一开始就被工程师设置的指令所决定了,比如安全气囊,这种技术的本质就是,以少数人的生命来人换取多数人的存活。

cc5fe2b9a34247b096cfc4d0c91c733d.jpeg

当然,为了获得整个社会和法律的认可,无人驾驶汽车还需要一套透明的可靠性保准,通过制造企业和政府合作,共同制定一个定义明确的公共标准――无人驾驶汽车的平均故障间隔距离应该达到多少才是可接受的。

根据弗吉尼亚理工大学交通研究所的数据,人类驾驶车辆每行驶百万英里会发生4.2次事故。按照这个来计算,行驶超过500万英里约发生21次撞车事故,与Waymo的无人驾驶汽车记录相当。

根据胡迪・利普森(Hod Lipson)在《无人驾驶》中的表述,一辆无人驾驶汽车如果无事故行驶的里程数两倍于人类的水平,则可以宣称“人类安全系数2.0”。一辆无人驾驶汽车的安全程度如果3.5倍于人类驾驶汽车,则可成为“人类安全系数3.5”;以此类推。

作者解释道,在所有运输系统中,具有最高级别平均故障间隔时间的运输系统之一就是民航飞机。平均而言,每200万次的飞行才会出现一次致命的系统故障(不考虑飞行员失误、恶意破坏、恐怖主义和其他外部因素,事实上80%以上的飞行事故是由哪些因素导致的)。

为此,利普森认为,为了提高安全性,无人驾驶汽车可以从民航飞机当中借鉴的经验是:

  1. 有一套合理而透明的机制来权衡并量化机器人驾驶的能力;

  2. 操作系统设计的优化;

  3. 建立故障防护系统,即出现紧急情况下系统之间可以互相检测故障,如果多个子系统“产生分歧”,会通过投票的方式来解决僵局。

不过与人类驾驶的汽车相比,自动驾驶汽车给行人、自行车骑手或者其它汽车带来的风险并不见得更大。美国交通部就表示,94%的致命事故都是人为失误造成的,但公众一直告诉民调机构,他们对无人驾驶汽车心存警惕。在接受调查的美国人中,有56%的人表示,他们甚至不愿意乘坐无人驾驶汽车。

然而事实却是,没有任何一种交通工具具备完美的可靠性。自动驾驶汽车技术的优势之一就在于,它能以幂次方的效率快速学习过去的行驶数据库,其解决复杂的状况能力也会在过程中不断提升。

事故发生后,Uber发表声明称,“已经开始对我们的无人驾驶车辆计划进行全面的安全审查,我们聘请了前NTSB主席克里斯多弗・哈特(Christopher Hart)为我们提供打造全面安全文化的建议,我们的审查从系统安全到车辆操作员的培训过程”。

此后一周,英伟达也停止其在全球的无人驾驶汽车路测工作。并表示,“这起事故是一场悲剧。它提醒人们,开发无人驾驶汽车技术是多么困难,需要极端谨慎和最好的安全技术。这场悲剧是我们致力于完善这一拯救生命的技术的原因”。

而作为普通民众,我们不希望等到事故之后,才开始全方位的安全审查。

驾驶 汽车 自动 Uber 事故
分享到:

1.TMT观察网遵循行业规范,任何转载的稿件都会明确标注作者和来源;
2.TMT观察网的原创文章,请转载时务必注明文章作者和"来源:TMT观察网",不尊重原创的行为TMT观察网或将追究责任;
3.作者投稿可能会经TMT观察网编辑修改或补充。


专题报道