美媒揭露特斯拉FSD系统“双重标准”,胜利时归功自己,问题则推责车主

美国媒体最近指出,特斯拉的完全自动驾驶系统(FSD)在处理成功和失败时存在“双重标准”。这种做法被批评为在宣传系统能力时过于乐观,而在解释系统失误时又过于消极,从而对公众产生误导。
根据报道,当FSD在驾驶中表现良好,帮助车辆顺利导航或避免事故时,特斯拉通常会强调这是FSD的成功,以此展示系统的先进性和价值。然而,当系统出现失误,导致事故或需要人类驾驶员接管时,特斯拉则倾向于将责任归咎于车主的操作不当或环境因素,而不是系统本身的缺陷。
这种“双重标准”的做法引发了公众和监管机构的担忧。一方面,它可能导致车主对FSD的能力产生不切实际的期望,从而在真正需要人类干预时反应不足。另一方面,它也可能阻碍了特斯拉改进FSD系统问题的动力,因为公司更愿意将问题外部化,而不是深入调查系统本身的不足。
此外,这种做法还可能对特斯拉的品牌声誉产生负面影响,因为消费者越来越期望透明和诚实的沟通。如果特斯拉能够更开放地承认FSD的局限性和挑战,并与公众和监管机构进行更诚实的对话,那么它可能会更好地建立信任,并推动自动驾驶技术的健康发展。
总的来说,特斯拉FSD的“双重标准”做法是一个值得关注的问题,它涉及到公众安全、企业责任和技术发展的多个层面。特斯拉需要更加透明和诚实地对待FSD的表现,无论是成功还是失败,以

相关内容:

来源:凤凰新闻

特斯拉FSD

凤凰网科技讯 北京时间11月10日,据美国汽车网站Electrek报道,特斯拉在其全自动驾驶系统(FSD)的功与过上一直遵循这么一种模式:成功表现归自身(尽管仍依赖人类驾驶员),出问题时责任在车主。

但是,特斯拉近期推出了更多允许车主分心驾驶的新举措,可能会让该公司在软件出现故障时更难将责任推给车主。

目前,无论是特斯拉的自动辅助驾驶系统(Autopilot)还是FSD,它们都属于同一级别的自动驾驶系统分类。根据国际汽车工程师学会的驾驶自动化等级,它们都属于Level 2级驾驶系统。

所有驾驶自动化系统按0到5级进行划分:对于L0至L2级系统,驾驶员对车辆的所有行为负责;对于L3级系统,车辆在某些情况下可以被视为负责任的一方;对于L4至L5级系统,车辆始终承担责任。

目前在美国,有一款L3级系统可用,它就是奔驰的DRIVE PILOT,可以在有限条件下让汽车自动驾驶。像Waymo这样的自动驾驶出租车属于L4级系统,无需驾驶员,但仅能在特定情境或区域内运行。特斯拉的自动驾驶出租车据称类似Waymo,但由于仍配备安全监督员,可以说仍是L2级系统,因为驾驶员仍在车内,只是不在驾驶座上。

然而,特斯拉对FSD的承诺显然将其定位于L5级系统。特斯拉CEO埃隆·马斯克(Elon Musk)多次表示,FSD最终将能够在无人驾驶的情况下完成跨州驾驶,例如你的车在纽约,你可以让它到洛杉矶接你。

称赞FSD

特斯拉经常宣称其FSD优于人类驾驶员,且安全水平正在持续提升。特斯拉经常公布事故间隔里程数据,对比人类驾驶与FSD驾驶的里程数。根据特斯拉发布的数据,FSD驾驶的安全里程优于人类。

然而,这并非事实全貌,因为特斯拉的数据存在筛选倾向。真正严谨的安全研究应当排除可能影响结果的外部变量,而截至目前,特斯拉尚未进行此类严格研究。相比之下,Waymo已多次发布由外部机构完成的研究报告。

马斯克

特斯拉提供的数据与第三方的数据也存在一些差异,后者显示的特斯拉“人工干预间隔里程”相对较短。这个指标被认为是衡量自动驾驶系统接近L4级或L5级能力的关键指标,因为理想状态下,自动驾驶汽车应能行驶数万英里而无需人工干预。

在上周的股东大会上,特斯拉提供了最新数据更新,再次显示FSD驾驶里程内导致的事故远少于其他驾驶模式,但依然未提供符合严谨研究标准的完整数据。更值得关注的是,特斯拉自身数据显示,其安全性在今年有所下降。

事实上,特斯拉提供的所有数据都无法独立说明FSD本身的安全性。由于现行规定要求人类驾驶员必须坐在驾驶位待命,所有统计结果均基于“FSD+人类驾驶员”的双重保障模式。当测试中将人类从驾驶位移至副驾,仅作为“安全监督员”时,安全指标便会急剧下降。

问题怪车主

特斯拉会以积极的视角呈现FSD的数据,但是一旦出现问题呢?

当涉及特斯拉辅助驾驶系统的事故发生时,特斯拉往往首先声称事故与其无关,应由驾驶员承担责任。

从技术上讲,这种说法是正确的。如果FSD和Autopilot都是Level 2系统,那么驾驶员对车辆的一切行为负责。车主在激活这些系统前,必须在车内签署协议,确认在系统启动后自己必须始终注意道路,并对车辆的行为承担责任。

例如,当佛罗里达州一名开启Autopilot的驾驶员因弯腰捡手机闯过停车标志,导致连环撞车事故,撞上两人并造成一名行人死亡时,特斯拉坚称“驾驶员应负全责”。该案法官虽认定驾驶员承担主要责任,但仍判决特斯拉承担33%的过失,向该公司开出2.43亿美元罚单。

特斯拉Autopilot卷入的佛罗里达致命事故

此案判决部分源于马斯克对Autopilot和FSD能力的持续夸大性宣传。经年累月的技术神化,特斯拉已使公众普遍认为其车辆具备“自主驾驶”能力。但是,特斯拉在庭审中辩称,这些宣传言论根本不应作为证据,再次试图将责任归咎于驾驶员,而非Autopilot。

该判决还受到了特斯拉隐瞒关键数据的影响,这与其拒绝将FSD数据提交给第三方进行严谨研究的做法一脉相承。

特斯拉在其他类似案件中均选择在开庭前达成和解,通过支付高额赔偿金避免在法庭上讨论Autopilot的安全性。但是,该公司拒绝就佛罗里达案件进行和解,这可能是一个战略失误。

由此可见,特斯拉在FSD安全性上存在“双重标准”:当特斯拉的系统表现良好时,特斯拉会将所有功劳归于自己,即便驾驶座上有驾驶员;而当系统表现不佳时,特斯拉会尽力模糊事故原因或将责任归咎于驾驶员。公平地说,尽管马斯克多次对自动驾驶表达乐观期待,但驾驶员仍然负责操作车辆。

这就是所谓“薛定谔的FSD”(借用薛定谔的猫概念):当特斯拉希望承担责任时,它就负责;当特斯拉不希望承担责任时,它就不负责。

未来或承担更多责任

因此,特斯拉一直通过声称驾驶员在任何时候都应负责驾驶,成功规避了FSD许多问题的责任,这一点并没有错。

然而,矛盾之处在于:马斯克在上周股东大会上宣称,或将在一两个月内允许驾驶员“边驾驶边发短信”。

他似乎指的是特斯拉车内的驾驶员监控系统,该系统通过后视镜附近的摄像头跟踪驾驶员的注意力。如果系统发现你长时间没有看向道路,它会发出警告,然后停用FSD,让你自己接管驾驶,以确保你履行司机的职责。

马斯克表示,问题在于许多人无论如何都想边发信息边驾驶,因此会关闭FSD来发送信息,然后再重新开启FSD。马斯克声称,对于这些驾驶员来说,在FSD开启的情况下发信息比关闭FSD更安全,所以特斯拉不妨尽快更新软件以允许这种操作。

但这一举措可能带来的意外后果是,未来的法庭案件可能会以特斯拉在此问题上的过度自信为由,指控特斯拉未尽到确保驾驶员注意力的职责。尽管特斯拉声称驾驶员始终掌控车辆,但马斯克现在告诉驾驶员可以将视线从道路上移开,而且车辆也不会阻止这种行为。

正如佛罗里达案件所展示的那样,马斯克的公开声明会成为案件的一部分。因此,他现在对允许驾驶员边发信息边驾驶的过度自信,很可能在未来的法庭上被引用。

马斯克对利用驾驶员监测系统介入司法程序展现出特殊兴趣。此前他曾提议通过车内摄像头监控驾驶员行为,并计划在Autopilot事故诉讼中使用这些录像作为胜诉依据,不过该设想当时遭到特斯拉法律团队的否决。

但是在未来,这一切似乎都无关紧要。马斯克已表示,将在未来一两个月通过系统更新,正式允许驾驶员视线偏离道路。既然特斯拉拟将放任驾驶员自由转移注意力,录制分心监控视频便失去了意义。

更重要的是,即便驾驶员承诺保持专注,若特斯拉持续推出鼓励分心的功能,且马斯克公开宣扬纵容违规驾驶的设定,特斯拉今后在法庭上继续操作“薛定谔的FSD”责任的空间恐将大幅压缩。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅凤凰网科技。想看深度报道,请微信搜索“凤凰网科技”。

关于作者: 网站小编

码农网专注IT技术教程资源分享平台,学习资源下载网站,58码农网包含计算机技术、网站程序源码下载、编程技术论坛、互联网资源下载等产品服务,提供原创、优质、完整内容的专业码农交流分享平台。

热门文章