特斯拉自动驾驶撞车-特斯拉自动驾驶事故率

tamoadmin 0
  1. 中国本土特斯拉事故率
  2. 特斯拉的“完全自动驾驶”到底靠不靠谱?
  3. 特斯拉无人驾驶是哪款,特斯拉可以无人驾驶吗
  4. 特斯拉又出事故,自动驾驶到底安全不安全?

“自动驾驶”成为汽车行业竞相争夺的制高点是由于美国豪华电动汽车品牌Tesla(特斯拉)的巨大成功。

截止目前,特斯拉市值达到2767.51亿美元成为远超丰田汽车1726.36亿美元市值的世界第一大汽车品牌。

特斯拉的市值效应不仅反映了投资者对电动汽车未来的无限看好,也在于其对家庭清洁能源的追求。

特斯拉自动驾驶撞车-特斯拉自动驾驶事故率
(图片来源网络,侵删)

正如特斯拉所言,“Tesla?正在通过电动汽车、太阳能电池板以及适用于家庭和企业的综合可再生能源解决方案,加速世界向可持续能源的转变。”

“大屏”创造智能

目前,特斯拉在售的车型有特斯拉Model?S、Model?3、Model?X和Model?Y,售价从29万元到100万元人民币不等,其时尚的外观、简洁的内饰等似乎都在表达这个时代的特征。

特斯拉自动驾驶撞车-特斯拉自动驾驶事故率
(图片来源网络,侵删)

当然,电动汽车仍是它最具价值的核心。而最具个性的就是它创造性地将“大屏幕”引入汽车当中,开创了属于特斯拉的“智能汽车时代”。

特斯拉将汽车植入大屏幕,通过车身携带的众多传感器控制器、软件等,将汽车控制按键高度集成在一起,通过大屏幕像触碰手机一样操控,把汽车变成了智能手机,带来了传统汽车所不具备的“前所未有”的驾驶体验。

大屏幕开启了汽车“智能化控制”时代,然而谈起特斯拉的智能化,它还有一项令人称赞的系统就是一套名叫“Autopilot?自动驾驶”的功能:启用?Autopilot?自动驾驶功能后,车辆能够在行驶车道内自动实施转向、加速和制动

特斯拉自动驾驶撞车-特斯拉自动驾驶事故率
(图片来源网络,侵删)

具体功能包括,自动导航驾驶、召唤功能、自动泊车、自动变道和搭载支持完全自动驾驶功能的硬件。

然而,正是特斯拉宣传的自动驾驶功能却频发意外事故,致使多名驾驶员伤亡。

自动驾驶事故***不断

6月1日,省嘉义县,一辆特斯拉Model?3在开启特Autopilot功能,将车速固定在了110km/h高速行驶时,竟径直撞向一辆翻倒在公路上的大卡车,当时天气晴朗,Model?3没有任何刹车。

2016年佛罗里达的高速公路上,几乎是同样的情景,一辆Model?S直接撞上一辆拐弯中的货车结果如出一辙。

7月14日,美国亚利桑那州,一辆黑色特斯拉Model?S在本森附近的10号州际公路上与警车相撞,继而导致警车与一辆救护车发生连环追尾,车辆发生碰撞时,他正在使用特斯拉的Autopilot功能。

6月24日,深圳市南坪快速东行方向,一辆Model?3在开启Autopilot状态下跟车,与试图并道的渣土车发生碰撞,车辆未能识别到侧前方并线的渣土车。

特斯拉对事故车辆进行调取分析后表示,事发时车主的双手处于脱离方向盘的状态,并且没有检测到制动信号。最后判定为车主操作不当,而非Autopilot的问题

今年7月30日,特斯拉对发生在日本Model?X诉讼做出回应,否认“特斯拉的自动驾驶技术和驾驶员功能套件的专利缺陷。”有望将Model?X在启用Autopilot的情况下发生的归咎于个人操作不当。

但是,接二连三的均牵涉特斯拉Autopilot系统而导致的事故,却直指特斯拉宣传的这套自动导航驾驶存在鲜为人知的问题。

特斯拉Autopilot自动驾驶系统真的可以“自动”?

目前其处于什么级别呢?到底在何种情况下使用才能不因“Autopilot”发生事故呢?

特斯拉是否虚宣传?

按照SAE?International(国际汽车工程师协会)在2014年提出的自动驾驶汽车分级标准中对Level?2级的定义“车辆对方向盘和加减速中的多项操作提供驾驶,人类驾驶员负责其余的驾驶动作”和Level?4级的定义“由车辆完成所有驾驶操作,人类驾驶员无需保持注意力,但限定道路和环境条件”来看,特斯拉Autopilot系统仍处在Level?2级别。

Level?2级,主要是减少驾驶员的操作负担,驾驶员还是要接管方向盘,并像驾驶普通汽车一样驾驶。

可以看到,特斯拉在功能描述中也强调“”这个词,所以特斯拉并没有实现“完全自动驾驶”的能力。

但是,其官方又将其定义为“完全自动驾驶”能力下的功能,以特斯拉Model?S为例,其在官方宣传中称“每辆新款?Model?S?均标配先进的完全自动驾驶硬件,目前已实现?Autopilot?自动驾驶功能,”就容易让人产生歧义。

同时,根据自动驾驶等级分类的定义来看,目前任何宣称的“自动驾驶”都需要特定场景,并仅能实现自动驾驶系统中算法所适用的情况。

众所周知,人为算法都是有局限性和边界的。

所以,在一系列超出特斯拉Autopilot系统算法之外的情况,驾驶员如果还想依靠它来自动驾驶汽车,就避免不了导致出现意外事故。

而在以上的事故中,驾驶员都存在过度相信和依靠特斯拉Autopilot驾驶的行为,最终因超出“特斯拉Autopilot系统场景范围”而酿成悲剧。特斯拉也靠此项条件,否认了有设计上的错误,把事故归咎于司机操作不当。

不过从这一点看,足以证明特斯拉宣称的“Autopilot?自动驾驶”并不可靠。

在实际使用中,驾驶员仍需像平时驾车一样,注意力集中并随时准备进行人为干预,只有这样才不会因“技术误判”而导致无法挽回的损失。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

中国本土特斯拉事故率

都需要自动驾驶,如果你不需要,那是你还没用过,或者没用过好的。

相比车主,对此更加渴望,这不光提升运输效率,还会改变整个交通系统的运作方式。不过当下推广自动驾驶的直接目的,是大幅减少事故发生。

即便是入门级的L1自动驾驶技术,诸如制动防抱死系统(ABS),车身电子稳定系统(ESP),都可有效降低事故风险,而近年陆续推出的L2自动驾驶技术,虽然面对复杂路况会有些手足无措,但整体来看,依然对安全行车大有助益。

去年国内近17万起,近5万人丧生,17万人受伤,每天就是600人伤亡。尽快普及自动驾驶,哪怕快一天,都是在拯救生命。

可另一方面,我们也必须对产品有清醒认知,虽然L2具备一定智能,但距离真正的自动驾驶还很遥远。一些新兴车企在宣传上有意无意忽略这一点,甚至以“自动驾驶”之名来博人眼球,很不负责任

目前L2高级驾驶系统到底?“智能”到什么程度?

我们来看看丰田TSS主动安全系统:

它的防碰撞预警,可在10-180kph范围内提醒车主有碰撞风险;

主动刹车,可在10-80kph范围内起效,但在系统设定的跟车距离和反应速度下,遭遇行人、自行车时,汽车可自动刹停的理论极速是40kph,遭遇车辆的刹停极速则是60kph,也即车速过快时需要司机介入;

司机急加速和急转弯时,防碰撞系统有可能关闭,因为它认为车主此刻正在主动避免碰撞,不管是否真的如此;

系统有一个雷达和一个摄像头,都对准车头方向,在上坡时,车头朝天,系统有可能看不到前车,弯道也同理;

系统可能看不到突然变线的车辆,也有几率看不到在大街上“横冲直撞”的摩托车和自行车,这么一提,有些司机可能“莫名兴奋”,但请注意,它也可能看不见迎面而来的路桩或者电线杆。

它的“低能”还不止于此。

比如变道后遭遇前车堵路,系统却继续轰油门;当“前车的前车”急刹,前车变道躲过,跟在最后的L2系统可能来不及刹车;遇到急弯,系统容易把车开上树;转弯过程中,遇到低头族鬼探头,它可能会碾过去,你是不是又兴奋了?

说了这么多,你会觉得这套系统智障。如果和人比,它确实是。目前所有L2自动驾驶都是如此,所以才称之为“高级驾驶”。

但即便如此,也是有和无的区别,这套系统可在30kph之后启用0-180kph全速域自适应巡航,得体的车道保持和跟车动作,可在路况简单的高速路上轻松完成自动驾驶的任务;在突发状况下,你如果反应不及时,系统可以帮助你刹车和回正。

但到了路况复杂的市区,由于上述原因,它反而会增加你的焦虑。

为让系统更智能,特斯拉Autopilot强化了系统的眼睛,配备了8个摄像头、1个毫米波雷达、12个超声波雷达以及NVIDIADrive?PX2计算平台。

▲特斯拉的眼睛

于是它能够做到丰田TSS做不到的事:

比如有可能提前发现“前车的前车”急刹,从而避免碰撞;

遭遇临近车道的汽车突然别车,系统如果检测到另一侧车道无车,会主动避让到另一侧车道继续行驶;

特斯拉宣称Autopilot达到了L2.5,但这样的称谓只是一种营销策略,实际还是L2,因为它依旧需要车主全程监视路况。

特斯拉说自家产品已经具备L4自动驾驶的硬件基础,但目前来看,没有激光雷达,以现有的毫米波雷达和单目摄像装备,能否做好环境感知,是存疑的。

▲Model?3在高速路上自动驾驶连撞11个隔离桶

Autopilot目前能够完成的操作,主要还是防碰撞和自适应巡航,但比丰田TSS多了一个“打灯转向”的功能——巡航时车主连续两次按动转向灯,可以控制汽车自动变道。

但这种操作有不小风险。由于算法的原因,L2自动驾驶系统很难识别远处的静物——系统即便监测到了也当它不存在,这就是为什么当初特斯拉高速巡航时会撞上超车道停车的大货,因为它“看不见”。系统也很难察觉到侧后方高速通过的快车,此时自动变道就很危险。

▲特斯拉自动驾驶撞上大货

试想Autopilot车主冒然打灯变道,而转入车道上刚好有一辆车停靠或者侧后方有快车极速通过,如果车主自己操作,大概率救得回来——回到当前车道即可。但系统操作时很可能察觉不到危险,会继续变道。

这种应用层面的冒进,破坏了特斯拉苦心营造的未来感。

Autopilot可在征得车主同意之后,操控汽车自动变道、下高速路口。这一史无前例的操作让车主一时惊艳。可它常常因为路况复杂而操作失败,于是车主瞬间看透系统的极限——它并不聪明。惊艳消逝的同时,随之而来的是焦虑——它到底何时会失效?

▲特斯拉自动驾驶S弯失控

这样一来,通用就显得靠谱很多。

其Super?Cruise系统同样达到了L2,但没有给予系统自动变道的权限。而且系统会通过方向盘上的摄像头来追踪车主脸部和眼睛,只要你的视线在行进路面上,在自动驾驶时就无需握住方向盘,双手得到解放。当系统发现车主注意力不集中时,会在警告之后主动刹停车辆。这就比特斯拉方向盘预警管用得多,因为有些特斯拉车主会在方向盘上悬挂物体,来骗过预警系统去低头玩手机。可以看出通用比特斯拉更谨慎,更注重系统运行的稳定性和安全性。

但这套系统需要一套高精度地图才能完成巡航任务,一旦进入新路线,系统就失效了。

相比之下,奥迪在保守和激进之间做了平衡。

新A8配备的AI?trafficjam?pilot实现了L3级自动驾驶。从这一级别开始,系统不再简单完成单车道自动巡航任务,而是有了一些自主“意识”,比如可在情况允许时自主超车,而且最重要的,车主可以彻底放手了。

系统判定当下可以进入自动驾驶模式,你就能把车完全交给系统来操作。但使用场景非常有限,必须是车道线清晰的高速公路拥堵路况,汽车走走停停,时速不超过60kph,此时才能进入完全的自动驾驶。所以这个功能依旧鸡肋。

为了保证安全,A8配备了更多传感器,有1个激光雷达,12个超声波雷达、4个环视摄像头、1个前视摄像头、4个中距雷达、1个长距雷达和一个前置摄像头。但依然无法保证系统不出错,因为当前算法还不足以预测外界行动,还是需要你时刻保持警觉,随时接管车辆。

主动刹车,车道保持,自适巡航。

这是目前L2自动驾驶能够做好的事,再多就有风险了,而且这些操作,适用场景也有限。

就说车道保持吧,目前依靠摄像头来实现这一操作,如果摄像头遭遇强光,或者车道线不清晰不连贯,就有极大几率误操作。

当冰雪覆盖路面,系统就废了,因为雪在它眼中就是车道线;而十字路口复杂的车道线,更是能把系统摁在地上摩擦

哪怕车主自己操作,十字路口左转导致事故的几率也是右转的20倍,占总事故约2成,如果交给L2系统,大概率完全懵掉,因为即便它能准确识别路线、交通信号灯这些客观信息,也很难预测其他车主的主观操作。也因此自动驾驶权威谷歌waymo的无人驾驶测试车选择避开左转。

失败几率哪怕是万分之一,实际体验也会不好,后果也不堪设想,更何况L2的失误率远高于万分之一。

我想这就是为什么你没见过哪家传统车企,会在已量产的自动驾驶技术上大吹大擂,称谓也无非“主动安全系统”“高级驾驶”,跟“自动”没多大关系。

“无人驾驶”话题关注度太高,一出问题就上头条。尽管自动驾驶的研发,传统巨头们一直领先,但量产的应用和宣传上更偏保守。

▲2019自动驾驶研发领导者排行

而新企业敢于鼓吹自家的自动驾驶技术,不仅因为这是它们最重要的卖点。更大的底气来自于,它们是初创公司,销量少,情怀用户多,客户相对宽容。比如特斯拉成立16年了,总销量不到100万,而特斯拉用户的评价也如出一辙:“虽然这车有这样那样的毛病,但是以后都会解决的,现在的体验我很满意”。

所以这些新兴企业的风险在可控范围内。

传统巨头们一年销量就上千万,用户极其敏感,一点异响都能把公司整得焦头烂额,安全事故就更是如此了。

巨头们赔不起,这是它们求稳的原因,也是新兴企业的机会。但我们作为消费者,头脑需要保持清醒。

正因为L3及以下的自动驾驶技术还不够智能,不够惊艳,所以业界巨头都瞄准了能够应付绝大部分路况和场景的L4,并陆续放出风声,近期将实现量产。这算不算眼球经济不重要,重要的是,巨头们也纷纷放下以往保守的姿态,这表明L4时代真的即将到来。

文|休不?

图|网络

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉的“完全自动驾驶”到底靠不靠谱?

Tesladeaths的数据显示,在中国内地,有15人在特斯拉事故中丧生。最新一起发生在7月8日,重庆的一辆蓝色Model Y失控撞上路边行人,导致2死4伤。

两周后的7月22日,艺人林志颖驾驶白色特斯拉Model X在台湾桃园市中正北路发生,引发大火。林志颖被拖出时满脸鲜血,他的儿子脸部擦伤。这起事故的原因有待进一步调查。

和死亡事故相比,***在国内引发的反响似乎更大,尤其是安阳女车主因为刹车失灵而进行的车顶***案。特斯拉与该车主先是大打口水仗,然后又对簿公堂。

自动驾驶是罪魁祸首?

特斯拉的事故备受关注,尤其是涉及Autopilot的事故,这是因为该公司是在其车主身上测试新软件。新的技术一旦应用在道路上,其他人就成了这项技术的间接接触者。特斯拉是一家与众不同的公司,它在向世界推出先进技术时要承担风险,同时也在走捷径。从2014年10月起,Autopilot的硬件就默认搭载在每一辆出厂的Model S、Model X和Model 3上。

当一项特别的技术涉及到致命事故时,例如Autopilot,它就应该被仔细检查,以确定是什么决定导致了这个特别故障。特斯拉坚称,Autopilot让驾驶更安全,但有证据表明,结果似乎要复杂得多。

根据特斯拉发布的最新事故报告,2021年第四季度,在Autopilot(自动转向和主动安全功能)参与的驾驶活动中,每431万英里才会发生一起碰撞事故。而在没有启用Autopilot的驾驶活动中,每159万英里就会发生一起碰撞事故。相比之下,NHTSA的最新数据显示,美国境内车辆每48.4万英里就发生一起碰撞事故。

特斯拉无人驾驶是哪款,特斯拉可以无人驾驶吗

撰文?/?朱?琳

编辑?/?温?莎

设计?/?杜?凯

来源?/?Forbes,作者:Brad?Templeton

10月20日,特斯拉发布了一个***的测试版,面向其部分早期用户。该测试版被埃隆?马斯克(Elon?Musk)称为“功能完整的完全自动驾驶”。该公司还宣布,将目前出售给车主的“FSD?in?the?future”套装的价格上调2000美元(现价10000美元),以便他们在准备就绪时可以使用该软件。

该软件包给许多用户留下了深刻印象。一些人在Youtube上发布了该系统在城市街道上运行的。尽管有这个名字,但“完全”自动驾驶既不是自动驾驶,也不是业内大多数人所说的完全自动驾驶。更准确的说法是,它是在城市街道上运行的特斯拉“Autopilot”。

像Autopilot一样,它需要驾驶员不间断的监控,也确实会发生错误,需要驾驶员的控制以避免事故的发生。它可以处理各种各样的城市街道,但不能应对车道或停车场,所以人类司机在旅程的起点和终点都要开车。之前的Autopilot只操作高速公路、乡村公路和部分城市快速路,不操作标志、交通信号灯等基本要素。

该车辆的功能比我在那工作时的Google?Chauffeur(现在的Waymo)在2010年展示的稍好,尽管重要的是它仅使用摄像头和最小限度的地图即可完成工作,而Chauffeur需要使用详细的地图和激光雷达,并尽量减少使用摄像头。

这十年间,神经网络计算机视觉的能力得到了突飞猛进的发展。特斯拉做出了很大的努力——仅在主要参与者中有效——避免了激光雷达,并严重依赖于摄像头(还有雷达,这是每个人都在使用的)。

显示,这些车辆在各种街道和十字路口行驶。这包括没有标志的小街道,大的多车道街道,合理复杂的十字路口,包括无保护的转弯等等。这就是特斯拉所谓的“功能完整”——它至少在所有典型的路线上做了一些事情。

虽然我们不能从一小部分中得出确切的结论,但可能会有施工和一些等级的道路的问题,我们看到了白天和晚上,但还没有看到恶劣天气下的。

这些中,有一些必要的干预——人类司机必须抓住方向盘,控制局面,以避免极有可能发生的事故。虽然没有关于需要这些的频率的统计数据,但这种干预似乎相当频繁。这是需要持续人工监督的系统规范,也是他们需要这种监督的原因。

所有的完全自动驾驶汽车项目都需要一个或两个“安全司机”在方向盘后面,他们也需要做这样的干预,一开始很频繁,随着时间的推移越来越少。

直到最近,Waymo和现在的Nuro才部署了没有监管司机的车辆。Cruise最近获得了这样做的许可,但还没有实施,他们声称可能会在今年年底实施。亚马逊的Zoox也有这样的许可证。

根据特斯拉的和声称,在埃隆?马斯克的通勤中,他通常很少干预驾驶,有时根本没有干预,但这“似乎在大多数情况下都是有效的”。在现实中,我们要计算需要干预的频率。

据报道,特斯拉的Beta测试只对有较高安全记录的司机进行,但没有透露测试是如何进行的,这给我们带来了一些大问题:

这种干预有多频繁,情况有多严重?

特斯拉在没有经过培训和合作伙伴的情况下,能有效地让客户扮演自动驾驶汽车安全司机的角色吗?这与优步在发生致命事故时的做法有何不同?

特斯拉决定不使用激光雷达和详细地图,这对他们系统的质量有什么影响?

驾驶员可以安全地使用它吗?通过测试又能得到什么呢?

这合法吗?

干预的频率有多高?

人们不能从这些中辨别,但我们可以比较一下人类发生事故的频率。

有时候,干预会在不需要的时候发生,所以真正需要衡量的是“必要的”干预,即没有干预就会发生不好的事情。许多团队使用模拟器来模拟在没有干预的情况下会发生什么。“坏事”可以指严重的事故,或者只是指明显的驾驶失误,比如短暂地转向另一条车道,即使你很,车道上没有车。

人类每10万英里就遭遇一次事故,普通驾驶大约需要8-10年的时间。保险公司每25万英里(25年)就会遇到一次,警察每50万英里(40-50年)就会遇到一次。

的是,死亡非常罕见——人类驾驶每8000年发生一次,高速公路上每2万年发生一次。这对任何一个司机来说都是罕见的,我们开得太多,所以我们才会遇到那么多。

就其本身而言,整天驾驶无需干预似乎非常令人印象深刻,尤其是对那些初入这一领域的人来说,但这距离真正实现完全自动驾驶,而不是监控驾驶员的目标还有很长的路要走。

这种测试方式可以吗?

如果没有受过良好训练的安全驾驶员,并且每辆车配备两名驾驶员,大多数自动驾驶团队是不会测试这种水平的系统的。

优步对其安全司机的培训很差,该公司承认,发生事故时,每辆车只安排一名司机是错误的。这起事故的主要责任是安全司机无视所有规则,用手机看电视而不是工作,但我们知道其他特斯拉车主也会做类似的事情。

另一方面,Autopilot表明,对于遵循良好程序的驾驶员来说,安全使用Autopilot是可能的。

统计数据显示,在高速公路上使用Autopilot的特斯拉司机不如不使用的司机安全,但安全程度只是略有下降。(特斯拉公布了误导性的数据,声称它们更安全。)这种较低的安全水平可能可以解释为这样一个事实:一些司机正确地使用了它,是安全的,而另一些司机则没有,从而降低了平均水平。

我的经验是,使用它的一个好方法是在你的头脑中一直保持“影子驾驶”,即脑中想着移动你的手但不施加压力,当汽车转动方向盘时让你的手随着方向盘移动。用这种方法,如果方向盘不像你想要的那样移动,你可以快速地从轻力转变为实力,推动方向盘到它应该去的地方。

但并不是所有的司机都这么做,有些人不这么做,甚至试图打破特斯拉的警告。许多人认为,车内的摄像头监控着司机的视线,以确保注意力得到了关注。其他竞争系统也这样做。特斯拉对此进行过实验,但迄今为止拒绝取此类对策。

当然,让细心的司机测试这个软件对特斯拉来说是非常有价值的。这就是为什么其他公司花费数百万美元来支付安全驾驶员在几个州进行试车的原因。

马路中央也有拐角案例

所有这些测试的目的都是为了解决部署这些汽车的难题。在没有持续干预的情况下,在普通道路上驾驶相对“容易”(但要做到特斯拉所做的,即在没有激光雷达和地图的城市街道上驾驶,就比较困难)。

即使你能处理99.9%的情况,你也只是达到目标的一小部分。你需要找到所有那些不寻常和罕见的,人们称之为“拐角案例”。但这些不只是发生在角落里,找到它们中的大多数是一个非常漫长和困难的项目。Waymo的顶尖团队耗费了十年时间来做这件事。没有人真正做到过。

在网络中,司机们所表达的喜悦之情,是那些外行人的心声,他们以为得到99.9%的答案就能解决99.9%的问题。但它解决的问题还不到1%的十分之一。

驾驶工具中,通过人工监视,你可以让人工监视人员处理剩下的问题,作为人类一般的问题解决者,我们通常可以这样做。

也就是说,特斯拉有一个很棒的测试工具。司机们不再花钱找人来测试车辆,而是为这样做的特权付费。这让特斯拉比其他任何公司都能以更低的成本更快地积累里程,他们自然想要利用这一点。

这对特斯拉来说是个好消息,因为当我说他们已经走了千分之一的路时,你可能认为这意味着他们还有几千年的工作要做。好消息是,由于团队随着时间的推移越来越快,他们做后期的工作比早期的工作更快。

Waymo可能花了2年时间才达到1/1000,但再过10年,他们就差不多达到目标了。这是因为随着时间的推移,他们都壮大了自己的团队和测试队伍,也接触到了各种各样的新技术,比如神经网络、高级模拟等等。

特斯拉一直在这么做,而且还制造自己的处理器,几乎和谷歌自己定制的处理器一样好。摩尔定律还没有消亡,它不断提供更多的工具来加快其余工作的进行。但目前特斯拉还有很长的路要走。

地图和激光雷达

到目前为止,我们所看到的并不能告诉我们很多关于特斯拉避开激光雷达的争议选择和相关问题。

特斯拉希望利用摄像头和神经网络创建虚拟激光雷达,告诉他们摄像头看到的视觉目标有多远。这些向我们展示了他们对汽车和其他障碍物闪烁的感知,这在这些视觉系统中很常见,但也显示出他们还没有完全实现。

我们进一步了解了他们不使用详细地图的决定。人们试图在没有地图的情况下开车,以避免地图成本,并能够立即处理整条道路而无需绘制地图。地图可为你提供更多数据(即使它们错了并且道路已经改变),可以帮助你更安全。

不管你对地图的成本有什么看法,你很快就会想到没有它们的情况,而不是你想在第一批上路的汽车上做的事情。我们可以在特斯拉“FSD”的中清楚地看到这一点,该向左转弯并带有分隔线。

在这个中,你看到车辆左转。在几乎恰好一分钟的时间内,汽车针对要驶入的道路计算出了一个错误的地图,从而将道路分隔线放置在错误的位置。它试图驶进迎面而来的车流中,但司机接管了它,把车开进了正确的车道。

一辆没有地图的汽车在驾驶时,它的地图就会自动生成。它必须弄清楚所有的路缘、车道、标志和交通控制系统在哪里,以及每条车道的规则,然后从中选择驶入哪条车道以及如何驶入。

一辆有地图的汽车依赖于之前通过交叉路口的经验,以及对数据理解的人类质量保证。它仍然需要了解现场情况,特别是道路发生变化的任何地区,当然还要了解道路上所有移动的东西,但首先要做的是让路面更安全。

特斯拉自然会努力使自己的汽车更好地处理这样的路口,而不会再次犯同样的错误。而且,他们的车队意味着他们将迅速获得有关此方面的报告,并在进行必须进行的逐步改进方面具有优势。

但是,尚无法从摄像头图像完全了解道路的布局,这就是为什么大多数团队都觉得拥有包含所有细节的地图可以使它们更安全,功能更强大,即使制作和维护地图要花钱,并且它最初限制了可提供更高安全性的驾驶区域。

这是合法的吗?

其中一些测试人员在加州。这让人想起了早期的一个,当时由安东尼·莱万多夫斯基(Anthony?Levandowski)领导的优步自动驾驶团队试图在加州测试优步的车辆。加州法律要求测试自动驾驶汽车必须获得许可。

优步并不想获得许可,尽管莱万多夫斯基参与了起草这部法律的谈判。优步声称,由于法律豁免了“司机”系统需要许可,优步并不需要许可,因为他们在任何测试车辆上都有一名安全司机,因此这就是司机。

汽车制造商一直在推动在法律中加入驾驶员协助例外条款,因为他们不希望他们销售的系统突然需要许可。

加州车管所说“不行”。毕竟,既然每个人都使用安全驾驶员,那么法律就毫无意义,任何汽车都不需要许可证。

他们的观点是,如果你真的试图制造一辆自动驾驶汽车,你需要许可证,即使你有一个人作为正式司机监控它。他们告诉优步,他们将吊销所有优步车辆的牌照,除非他们排队等候。

这使特斯拉处于一种不寻常的状况。特斯拉的高速公路版Autopilot是驾驶员的工具,不需要许可证。但是他们将这个Beta测试版本称为“完全自动驾驶”。

正如我在上文中所断言的那样,这并不是像大多数行业内部人士所说的那样是真正的自动驾驶或完全自动驾驶,但是只要特斯拉说这是制造自动驾驶汽车的努力,许可证法似乎可能适用于他们,并关闭该州以及可能具有类似规则的其他州的Beta版程序。

本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

特斯拉又出事故,自动驾驶到底安全不安全?

特斯拉可以无人驾驶,根据汽车自动驾驶等级的定义,特斯拉的Autopilot自动驾驶属于部分自动化和有条件自动化。不过值得一提的是,国内所有特斯拉车型均配备了“***版”Autopilot,车辆只能能够根据其他车辆与行人在行驶车道内自动实施转向、加速和制动。

作为新能源汽车行业的佼佼者,特斯拉旗下车型包括Model X 、Model S以及Model 3都能实现Autopilot自动驾驶功能。不过要想体验真正的Autopilot自动驾驶,你还得掏钱购买完全自动驾驶能力,从而你的特斯拉才能实现自动泊车、自动变道、自动导航驾驶。

在过去的2019年里,涉及特斯拉汽车的交通事故中,一共有50多人因事故身亡,其中有一小部分是因为驾乘人员过度依赖Autopilot自动驾驶而造成。

特斯拉官方也表明,目前Autopilot 自动驾驶功能仍需要驾驶员进行主动监控,车辆尚未实现完全自动驾驶。

特斯拉Autopilot自动驾驶中,目前最吻合无人驾驶的功能,那便是“智能召唤”。如果你要去开车,走到停车场负极,手机点一下,即可让车辆自动开到你的身边。

不过该功能在刚推出时,也遭遇了不少尴尬,因为很多车主在使用该功能发生了多起事故,有的车辆碰到***墙,有的被其他车辆倒车撞到。

结论:现阶段的科技水平,特斯拉还没有做到真正意义上的无人驾驶。Autopilot 自动驾驶是一个先进的驾驶系统,旨在提升驾车操控性与便捷性,但不意味驾驶员可以完全放任不管,Autopilot可以降低事故发生的概率,不能防止事故的发生。

相关“特斯拉”文章推荐阅读

_ 特斯拉自动驾驶怎么开启

_ 特斯拉自动泊车使用方法

_ 特斯拉自动驾驶事故分析

特斯拉车辆出事故不是第一次了,之前很早就传闻其自动驾驶无法识别前方白色故障物,并且因此发生过多起事故。特斯拉尚且如此,其它电动车厂商的自动驾驶又是否能让人放心呢?

我们知道,自动驾驶划分为以下几个等级,自动化程度由低到高分别为L0到L5:

L0级-自动驾驶:无自动驾驶能力,油门、煞车、方向盘等全程皆由驾驶者掌控,也是目前主流的驾驶方式。

L1级-自动驾驶:驾驶操控为主,系统适时。

L2级-自动驾驶:部份自动化,驾驶者仍然需要专心于路况。

L3级-自动驾驶:有条件的部分自动控制,该系统可自动控制车辆在大多数路况下形式,驾驶员的注意力不需专注于路况。

L4级-自动驾驶:高度自动化驾驶,不过还是具有方向盘等界面提供给驾驶员适时操控。

可以看到,L3、L4、L5级别,驾驶员已经不需要完全关心、甚至一点都不需要关心路况,对一个非常谨慎的人来说,已经会开始担心自动驾驶靠谱不靠谱了。我个人认为,L3往后的级别,都必须在特定道路上才能放开,在路况复杂地区或者速度过高区域,一定不能放开。否则一旦碰到紧急或者意外情况,总有一定几率发生事故。我对自动驾驶的算法也有一定了解,比如强化学习。从算法本身出发,就没有能覆盖100%场景的算法。

况且自动驾驶还有一个很难解决的问题,那就是问题。当真的到了避无可避、一定会发生事故的情况下,到底作出有利于谁的决策?是要有利于本方驾驶员,还是要有利于本方车辆副驾驶,还是要有利于行人或者对方车辆?不管做出任何决定,相信都会遭到很多人的反对,算法在这种情况下如何抉择,完全取决于算法设计者如何设置算法的各种冷冰冰的参数,不管什么决策结果都是冷酷无情的。

标签: #特斯拉

上一篇怎么买汽车折扣才便宜呢-怎么买汽车折扣才便宜

下一篇当前文章已是最新一篇了