语言: English | 简体中文 | 繁體中文

特斯拉自动驾驶不安全? 粉丝不服 | 温哥华财税中心


特斯拉自动驾驶不安全? 粉丝不服

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
有不少人认为特斯拉汽车拥有着全世界最顶尖的无人驾驶技术,但也有人不同意这个观点。

丹·奥多德(Dan O`Dowd)是一位软件行业的创业者,同时也是着名的马斯克黑。

丹创立了一个叫作黎明计划(The Dawn Project)的项目,旨在公开那些在关键的安全系统中并不安全的软件。


特斯拉,就是这个计划的首要目标。

根据黎明计划在网上发布的文章指出,特斯拉在自动驾驶方面存在着巨大的漏洞,大约每8分钟,全自动驾驶就会发生一次严重驾驶失误,包括:

在可以避免的情况下与物体发生碰撞;

不遵守交通标志或者信号;

不服从安全人员或者安全车辆;

做出危险动作,迫使他人采取规避行动。

平均而言,特斯拉每在城市内自动驾驶36分钟,就会出现软件方面的故障,很可能会造成严重的事故。




为此他们还特意进行了安全实验。

他们在加州(专题)一条车道上模拟了一个假人小孩儿横穿马路。测试驾驶员将特斯拉的速度提高到60公里/小时后,在靠近人体模型100米时松开双手,切换成自动驾驶模式。


结果显示,当汽车接近人体模型后,汽车会进行一定程度的减速,但并不会完全停下来,而是会以不同的速度撞向人体模型。



视频发出之后,马斯克的粉丝根本不承认视频的真实性。

他们表示实验没有接受第三方公正,而且视频也没有拍到驾驶员全身,不知道是不是在偷偷踩油门。

一个在推特上很有名的,特斯拉的狂热粉丝Whole Mars Catalog则表示,这实验一点都不严谨,因为假人没鼻子没眼睛,无法被特斯拉所识别。


觉得新闻不错,请点个赞吧     还没人说话啊,我想来说几句
上一页123456下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页中阅读全文

    猜您喜欢

    您可能也喜欢

    当前评论

    当前评论目前还没有任何评论,欢迎您发表您的看法。
    发表评论
    您的评论 *:
    安全校验码 *:
    请在此处输入图片中的数字
    The Captcha image
      (请在此处输入图片中的数字)