盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

你是不是也曾幻想过这样的场景。出发去某地,自己不用驾驶汽车,只需坐在车里就能到达。甚至还能在车上美美地喝着咖啡、看着电影,轻松惬意的观赏路途风景。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

如今,这一幻想正在加速到来。

前不久,在英国交通部的一项拟议交通法规修改方案中,英国司机在车辆自动驾驶期间,可以在汽车内置屏幕上观看电视电影。并且,如果发生交通事故,保险公司会承担经济责任,个人无需承担责任。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

相信有不少人会有这样的疑问,自动驾驶已经这么智能了吗?用电脑控制的汽车真的会比人驾驶更安全、驾驶技术更优秀吗?

从一些方面来说,是的!

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

无人车利用人工智能技术,通过对大量实例的学习,掌握复杂路况的驾驶技术和决策能力,能把最正确、最合理的驾驶技术融入到车辆中,就像是集百家之长的老司机一样。

另外,借助人工智能自主学习的能力,通过对实例的学习和不断自我纠错,还能自我提高,让电脑越用越聪明。

也就是说,电脑通过人类“投喂”的数据进行学习,让它拥有比人类更优秀的决策能力,最大程度的利用“理性设置”去到达一个趋近于“完美”的驾驶技术。

另一方面,电脑在反应速度和计算能力都要比人力优秀。当遇到紧急状况时,电脑可以更快速精准地做出反应处理,比如紧急制动、躲闪等动作。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

比如前不久,一位特斯拉车主在去女友家的路上时,遇到了小朋友骑滑板车横穿马路的突发状况,车主还未反应过来时,特斯拉就启动AEB紧急制动功能,这才没有发生危险。

这便是连老司机也怵的“鬼探头”。面对这种常见的突发状况,电脑都会提前感知并进行预判,当发生紧急状况时能在第一时间做出反应。但是,当人类遇见这样的状况,往往大脑都会一片空白,错过了最佳制动时机,最终导致悲剧的发生。

目前来说,能够合法上路的汽车,其所搭载的自动驾驶技术基本为L2级ADAS(高级驾驶辅助系统)系统,也是车企技术发展的主流。代表企业有特斯拉、蔚来、小鹏、理想等。那么这个L2级的驾驶辅助可以到什么水平呢?

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

以蔚来的NOP为例,启动这个功能后,允许车辆在特定条件下按照高精地图导航规划的路径自动巡航行驶。它可以通过高精地图,在高速公路等封闭道路上让车辆按照导航路线行驶、根据路况自动切换车道、驶入驶出高速匝道。

这么一看,已经和我们人类驾驶“别无二致”。

但是,它也有一定的局限性。

目前,所有自动驾驶技术都是根据传感器(视觉、光波与声波雷达)捕捉到的信号进行判断,但是,这些传感器都存在一定的缺点。

比如,摄像头要求光线要好,如果没有光识别率就会大大降低,甚至不能工作;激光雷达对雨雾的穿透能力有限等等。并且,这些信号都要经过处理、逻辑运算、决策,最终才能做出执行。

也就是说,自动驾驶系统背后它是有一套严谨的逻辑在里面。一套好的自动驾驶系统之所以比人类要聪明,是因为背后设计的人更聪明、逻辑更严谨。所以,这套系统的关键还是要看人,人才是最重要的。

由软件控制硬件,再由人去设计软件逻辑,就必然会存在Bug。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

Windows系统发展至今已经有30多年,还依然存在Bug,偶尔需要重启才能解决问题。但是,自动驾驶系统软件如果出现了Bug,比如识别错误,那么就不是重启这么简单了,这就有可能会关乎到生命安全。

就在上周,美国加州一辆特斯拉Model S撞到了路边的建筑设备,造成车内3人死亡,另外3名建筑工人受伤。据NHTSA(美国国家公路交通安全管理局)调查,可能与特斯拉Autopilot辅助驾驶功能有关。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

正所谓“成也萧何,败也萧何”。电脑控制的自动驾驶功能从某些方面来说,确实要比我们人类更优秀,但它远没有人们想象的那样成熟,它只是代表了一种趋势。但不乏一些车企为了多卖货,利用营销手段夸大产品功能,将辅助驾驶说成全自动驾驶,制造噱头误导和欺骗消费者。

一些不明真相的用户轻信了企业的宣传,在实际驾驶过程中,完全脱离了对车辆的接管,最终导致车毁人亡的事故不在少数。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

之前,南京一特斯拉车主开车时,完全把驾驶权交给了电脑,甚至在车辆高速行驶中在车内竟然睡起觉来。如果这个时候发生意外,后果不堪设想。

真的要是发生了意外,车企就会把责任推到消费者身上,并告诉你,他们的是“自动辅助驾驶”系统,而非“自动驾驶”系统。

从目前的技术来看,真正的自动驾驶离我们还很遥远。一套自动驾驶系统需要测试110亿英里真正达到完全可商用程度。而即便是无人驾驶的头部企业Waymo,其测试里程数也不过千万英里,仍相去甚远。

即便这些都解决了,但自动驾驶依然会面临伦理难题。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

人类驾驶出了事故会有主体承担责任,而自动驾驶汽车出现事故谁来承担责任?

如果路面突然有行人闯红灯,此时已经来不及刹车,自动驾驶车辆是不顾一切撞上去,还是最大程度地保护行人撞向路边?这些都是软件在设计之初就应该考虑好的。

但像这样的伦理问题,目前国内还没有明确的法律规定。所以也就无从谈起软件的设计逻辑了。

如果是人类驾驶,那么这就是个简单的司法问题。事故后,按照司机和行人的责任比例判决即可,在法律层面有非常完善的条例。

写在最后

自动驾驶表面看是人设计软件逻辑,再由软件去控制硬件,进而达到自动驾驶功能,但背后其实都是人性关于道德以及法制的争论。

盲目相信自动驾驶就是在玩命,它远没有你想象的那么成熟

说了这么多,其实最可靠的、唯一能信任的,还是我们驾驶者本身,如果把生命交给自动驾驶,那么是对自己和对他人的不负责。

展开阅读全文

页面更新:2024-04-29

标签:特斯拉   盲目   逻辑   车辆   成熟   状况   人类   能力   功能   责任   系统   电脑

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top