特斯拉全自动驾驶三次撞上儿童假人,撞后没停重新加速

人工智能 无人驾驶 新闻
特斯拉 Model 3 FSD Beta 10.12.2 在 FSD 模式下就像迷路了一样,速度减慢了一点,在撞倒人形模型后又重新加速。

Dan O'Dowd 是嵌入式开发公司 Green Hills Software 的 CEO,他于去年发起了一项名为「The Dawn Project」的活动,旨在禁止安全系统中使用不安全软件,其中就包括对特斯拉自动驾驶软件的测试。

为了模拟自动驾驶汽车在现实中遇到小朋友过马路时的反应,The Dawn Project 近日进行了一项新测试,结果表明配备 FSD Beta 10.12.2 自动驾驶软件的 Model 3 会撞上儿童的人形模型:

图片

测试中 Model 3 剧烈撞击模型,导致模型组件分离:

图片

项目组测试了 3 次,每次都撞到了人形模型。这似乎已不是偶然事件,说明 Model 3 的 FSD 系统存在安全隐患。

我们来看一下测试的具体过程。

测试过程

为了使测试环境更有利于特斯拉的 FSD 系统,除了车辆和人形模型之外,道路上可能影响测试的其他变量都被移除。

测试车道两侧放置了标准的交通锥,儿童大小的人形模型被放在测试跑道尽头的中间,就像小朋友要过马路一样。测试过程中,专业测试驾驶员首先将汽车的速度提高到每小时 40 英里。一旦车辆进入测试车道,就改为 FSD 模式,驾驶员不再操作方向盘,也没有踩油门或踩刹车等动作。

图片

Model 3 FSD Beta 10.12.2 在进入 FSD 模式时的初始速度为 40 英里 / 小时。3 次测试,Model 3 都撞到了前方的人形模型,碰撞发生时的速度如下表所示

图片

图片

驾驶员的报告显示:特斯拉 Model 3 FSD Beta 10.12.2 在 FSD 模式下就像迷路了一样,速度减慢了一点,在撞倒人形模型后又重新加速,撞击时的速度约为 25 英里 / 小时。

这一结果与马斯克长期以来声称的 FSD 是安全的说法矛盾。马斯克曾在今年 1 月发推文称:「没有一起事故是特斯拉 FSD 造成的」,而事实并非如此。据《洛杉矶时报》报道,已经有数十名司机就涉及 FSD 的事故向美国国家公路交通安全管理局提交了安全投诉。

上个月,加州机动车管理局(DMV)还指控特斯拉对其 Autopilot 自动辅助驾驶和 FSD 功能进行了虚假宣传。

尽管 FSD 声称是完全自动驾驶,但实际上它只是作为一个可选的附加组件运行,主要功能是自动改变车道、进出高速公路、识别停车标志和交通信号灯以及停车。该软件仍处于 beta 测试阶段,但已有超过 10 万个购买用户,特斯拉通过这些用户实时测试该软件,并试图让该 AI 系统向经验丰富的驾驶员学习。

责任编辑:张燕妮 来源: 机器之心
相关推荐

2022-03-21 11:34:29

特斯拉自动驾驶安全

2021-12-06 16:14:04

特斯拉FSD自动驾驶

2024-01-16 09:28:09

智能汽车

2023-02-13 12:15:41

自动驾驶算法

2022-01-11 17:43:34

特斯拉自动驾驶技术

2024-01-03 15:07:10

2023-07-06 22:35:53

自动驾驶人工智能

2020-12-23 14:07:36

数据中心自动驾驶IDC

2023-03-11 22:44:04

人工智能特斯拉

2021-05-11 12:08:39

大数据自动驾驶数据分析

2016-10-21 20:16:25

安全性自动驾驶特斯拉

2018-03-25 21:18:38

特斯拉Model X起火

2021-11-24 10:56:04

特斯拉自动驾驶技术

2022-07-14 14:54:00

特斯拉AI自动驾驶

2023-11-27 10:26:59

自动驾驶特斯拉

2022-10-27 10:18:25

自动驾驶

2019-11-20 10:36:55

自动驾驶重卡自动化

2020-05-28 15:36:50

自动驾驶人工智能技术

2021-04-07 10:05:10

特斯拉网络安全自动驾驶汽车

2021-12-15 10:40:53

特斯拉AI自动驾驶
点赞
收藏

51CTO技术栈公众号