您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
智能驾驶 正文
发私信给大壮旅
发送

0

Model X 致命车祸初步调查结果出炉,我们发现了这些未解细节

本文作者: 大壮旅 2018-06-10 17:46
导语:Elon Musk 还欠大家许多个问题的答案。

Model X 致命车祸初步调查结果出炉,我们发现了这些未解细节

雷锋网按:Elon Musk 还欠大家许多个问题的答案。

还记得前段时间因车祸不幸身亡的华裔特斯拉 Model X 车主吗?那起悲剧终于有初步调查结果了。

近日,美国全国运输安全委员会(NTSB)发布初步调查报告称,那辆 Model X 在最后几秒是处于加速状态的,这也是车祸变得如此严重的原因之一。

3 月 23 日早晨,苹果工程师 Walter Huang 驾驶自己的 Model X P100D 行驶在硅谷一条高速路上,当时车辆处于 Autopilot 模式下(在该模式下共行驶 19 分钟),但在一个交叉路口,这辆车却一头撞在了安全护栏上,当时车速高达 70 英里/小时(约合 112 公里/小时)。

据悉,那条路上限速 65 英里/小时(约合 104 公里/小时),而在车祸发生前,车辆速度还不到 65 英里/小时,而且它还一直跟着前面一辆车。

不过,在碰撞发生前 4 秒,车辆却“决定”不再跟车,直接进入了三角形的分道角区里,而这个角区直接分开了 85 和 101 号公路。

碰撞前三秒,车辆突然加速,直接从 62 英里/小时提升至 70.8 英里/小时,然后一头撞上了安全护栏。由于速度过快,这辆 Model X 的前半部分甚至直接解体(解体也与破损的护栏有关)。整个碰撞过程中,Autopilot 都没看到安全护栏,也没有任何紧急规避或制动的反应。

Model X 致命车祸初步调查结果出炉,我们发现了这些未解细节

即使发生了如此惨烈的碰撞,这辆 Model X 也没停下来,它随后又与路过的一辆马自达和一辆奥迪相撞,各种残骸散落一地,直接导致交通中断。6 个小时后,工作人员才完成了善后工作(灭火、清理碎片并拖走车辆),高速路终于恢复通车。

让人无语的是,Model X 电池引发的大火耗费了消防队 200 加仑(757 升)的灭火剂才扑灭。但五天后,这辆已经是一堆废铁的 SUV 居然再次起火,消防员又花了很长时间才扑灭。

老拿“Auto”说事好像有点名不副实?

一直以来,Autopilot 系统都是特斯拉电动车的特别卖点,但近期各种与其相关的事故却让人们担心起它的安全性来。

如果从技术指标来看,这套系统其实根本配不上用“Auto”这个前缀,它至多算得上是一个“超级巡航控制”系统罢了,因为你的双手还是要放在方向盘上,精神也一刻不能放松。

不过,没亲身经历过危险的特斯拉车主恐怕早已被 Autopilot 的名字和营销所迷惑,他们可能还真觉得自己的车搭载了一个自动驾驶系统,心甘情愿把自己的性命交给 Autopilot 。

在这起事故中,特斯拉应对问题的“膝跳反射机制”又启动了,而且反应有些过激。

每次出现与 Autopilot 有关的负面新闻,特斯拉发言人就会马上跳出来甩锅,称都是因为驾驶员开车时疏忽,特斯拉早就提醒过双手不能离开方向盘云云。此外,因为这起事故特斯拉还与 NTSB 结了梁子。

在把责任甩锅给 Walter Huang 时,特斯拉承认当时车辆处于 Autopilot 模式,但特斯拉却解释称,“车主将自适应巡航的跟车距离调到了最短”(特斯拉并未解释到底什么才是安全的跟车距离)。

特斯拉还宣称“驾驶员开车时收到了车辆的视觉和听觉警告,而且在碰撞发生前驾驶员的双手有 6 秒时间都不在方向盘上。”

为了进一步将责任推给 Walter Huang,特斯拉还表示:“在碰撞发生前,司机有 5 秒时间做反应,他更是可以清楚的看到 150 米外的混凝土隔离带,但 Huang 什么也没做。”

事故详细背景

特斯拉确实是在陈述事实,不过它给出的原因却缺乏上下文,NTSB 在初步调查报告中倒是披露了不少细节。

1. 特斯拉所谓的视觉和听觉警告其实是在事故发生前 15 分钟时给出的。

2. 虽然最后 6 秒钟车辆都处于“大撒把”状态,但在车辆左转时 Huang 是在正常开车的,而且在事故发生前 1 分钟内,Huang 有一半时间(34)秒都是握着方向盘的。

3. 我们假定 Huang 没能看见自己的车已经到了分道区且正在向安全护栏撞去。当然,Model X 也没看到。在最后 5 秒钟,它只有 1 秒处于跟车状态,但车辆并未做出任何反应,比如刹车或者紧急变道,它甚至还在关键时刻加速了。

显然,这起事故还有许多未解之谜等待我们去发掘,比如:

1. Model X 原本跟随行驶的那辆车到底怎么了?它最后上了 101 号还是 85 号公路?也许这是解答车辆异常行为的关键问题。

2. 为什么最后时刻在这辆 Model X 选择加速而非减速?

3. 车辆发现自己没有在标线内行驶吗?如果它自己清楚这个状况,为什么还是无动于衷呢?

4. 那辆 Model X 知道 Huang 到底要走哪条路吗?是 101 号还是 85 号?如果答案是肯定的,是否会影响从车辆的判断?

这些问题全部解答后有可能让特斯拉“脱罪”(只是有可能),但恐怕它们也难逃外界白眼,毕竟在事故责任的划分上特斯拉太“自私”了,好像自己根本没有责任。

特斯拉甚至还把高速路的维护部门当成了责任人,称如果不是护栏年久失修,这起车祸就不会如此惨烈。

Autopilot 到底安不安全?

这起事故也让我们清楚的意识到,Autopilot 并也没有宣传的那么安全。而且别忘了,这段高速路可是地处硅谷的核心地带,是大量自动驾驶汽车公司的所在地。

总得来说,关于这起车祸特斯拉未来还有很多问题需要回答,至于特斯拉的回答能否得到外界认可就两说了。

雷锋网注:6 项会员专享特权,全年 100 期精华内容,带你深入浅出看懂自动驾驶。如果想加入雷锋网「新智驾会员计划」,欢迎点击链接 :https://www.leiphone.com/aidrive/vip 或扫描海报下方二维码了解详情。

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说