裸奔的特斯拉,也难以实现驾驶自由

共 5526字,需浏览 12分钟

 ·

2021-03-31 23:01

©新熵原创

作者 | 古廿  编辑 | 明非


曾经在李彦宏看来,中国用户可以为了便利放弃隐私安全。但是如今在智能汽车领域,即使车主们信息裸奔,驾驶自由却依然难以实现。

几年前汽车行业曾经大胆预测的自动驾驶时间表,如今却在不断推迟。2019年以前,大家对于自动驾驶技术难以应用的普遍认知归咎于当时不能满足低延时要求的4G网络。

随着2020年5G基础发展和部署的完善,满足自动驾驶的低延时网络成为可能,被称为5G元年的2020年,也迎来了自动驾驶元年。

2020年2月,在一个公开的播客节目中特斯拉CEO马斯克承诺:2020年底,实现全自动驾驶—即特斯拉汽车在没有驾驶员任何干预的情况下,自动行驶到目的地。

为了表示信心,在同年4月的特斯拉自动驾驶开放日上,马斯克再次强化承诺:2020年底,特斯拉将Autopilot系统升级到全自动驾驶功能,配置在Model S和Model 3上,并且将部署超过100万辆无人驾驶计程车。

在2020年7月9日于上海举行的世界人工智能大会开幕式上,马斯克进行演讲并表示:特斯拉已经非常接近L5自动驾驶了,有信心在2020年完成开发L5级别的基本功能。

在马斯克看来,实现L5级别的全自动驾驶不存在根本性难题,只是还有很多要解决的细节性问题。

如今关于特斯拉自动驾驶时间表的这一切正在被媒体们认为是马斯克泡沫,因为事实证明在2020年没有实现的L5级别自动驾驶,即使在2021年也几乎难以实现。

曾经被马斯克认为只是细节性的小问题,如今正在成为使智能汽车深陷舆论的大问题。

无处不在的车主裸奔  


根据英特尔公司预测,2020年一辆每天运行8小时的自动驾驶联网汽车可以产生4TB的数据。作为对比,2020年互联网用户每天产生1.5GB数据量,以此计算,一辆联网汽车每天产生的数据量相当于3000人每天产生的网络数据量。

这么庞大的数据量主要来自于为了实现自动驾驶,遍布汽车的数百个车载传感器。以英特尔研究数据来看,摄像头每秒可以产生20-40Mb的数据,激光雷达每秒产生将近10-70MB的数据。

虽然数据量惊人,但是对于数据的采集方式和用途,新能源厂商们却得不到车主的信任。
 
以最近马斯克在推特亲自下场回应,引发社会争议的特斯拉监控门为例。事情的起因是马斯克发推文提醒自动驾驶Bate版本的试用用户,称根据监控摄像头发现有部分车主对于道路情况没有足够关注,对于这部分用户要收回试用权限。

随后有网友追问车内摄像头是不是可以监控车主,马斯克回答是的。之后关于特斯拉是否监控车主,侵犯隐私的问题引发网友热议。

对于此事,特斯拉官方随后在3月19日发布声明表示:特斯拉的车辆不存在通过车内摄像头侵犯车主隐私的行为,并强调称,所有中国市场上的特斯拉车辆均未开启车内摄像头。

 
官方的回答并没有让车主们安心,根据新浪科技最近的一次微博投票显示,70%的人表示不相信。主要原因可能是因为在2017年时,对于车内摄像头的功能,马斯克曾经表示是为了共享自动驾驶汽车准备的,通过摄像头可以来监控是否有人故意弄脏你的车。

后来自动驾驶无限期推迟,共享计划也不了了之。但是车内的摄像头却被用来监视司机,这让车主们认为监控与否完全取决于特斯拉,自己不能知晓也不能自由控制。

车内摄像头监控不是什么新鲜事,以国内为例,根据交通部规定,部分车辆安装智能视频监控系统早已成为必要条件——依据交通运输部办公厅发布的“关于推广智能视频监控报警技术的通知”,在2020年6月30日前,所有“两客一危”车辆需安装完毕。

但是人们对于智能汽车却不再相信,因为相较于自己按照规定通知安装的知情权,特斯拉等智能汽车可能不需要让你知道,通过软件更新就可以启动车内摄像头。

根据《IT时报》报道,蔚来、小鹏等一批造车新势力的部分车型上都有摄像头,目的是监测车主是否疲劳驾驶。对于是否会侵犯隐私,厂商们都表示只会检测驾驶员眼球,在疲劳驾驶时车辆给予提醒。

业内人士表示“疲劳提醒”等类似功能也被作为一个车辆智能化的亮点来进行售卖,而且不上传云,本地就可以处理数据信息并做出提醒。

如果说车内摄像头是为了驾驶安全,那么被称为自动驾驶汽车“眼睛”的车外摄像头则成为特斯拉会侵犯隐私的官方怀疑。

根据相关媒体报道,特斯拉被禁止停放在相关国家安全家属院内,主要因为特斯拉会主动收集车身周围的外部环境情况。此前这一模式被认为是特斯拉智能化的表现之一,称为“哨兵模式”。

根据外媒报道,对于特斯拉汽车,仪表板相机和自拍相机可以在汽车停放时记录,而对于车主而言,他们不可能知道特斯拉何时会这样做。这些摄像头支持“哨兵模式”等功能,此外,它们还能使雨刷“看到”雨滴,并自动工作。

除了担心会泄露隐私的摄像头问题,不起眼的二手零件隐私问题此前也引发担忧。

美国消费者媒体CNBC此前指出,如果你不幸撞毁了你的特斯拉汽车,即使它被拖往垃圾场,你也不要忘记,它可能带着一大堆有关你的历史,因为特斯拉电动汽车所存储的数据远超出你的想象。

2020年一个化名为“GreenTheOnly”的白帽黑客,通过在eBay购买的特斯拉二手零件,从中提取出包括但不限于手机电话本、通话记录、日历项目、Spotify和Wi-Fi密码、家庭和工作地点的定位、导航去过的位置,以及允许访问Netflix和YouTube(还有附加的Gmail帐户)的会话cookies。

不仅如此,在2019年3月,根据美国消费者新闻报道,打捞出来的特斯拉汽车也依然存储有数据。虽然用户可以利用工厂设置选项清除汽车中的敏感数据,但一旦旧部件从汽车上拆除,用户就无法进行清除。

不仅特斯拉有隐私问题,其他品牌的汽车也有同样的隐私问题。美国联邦贸易委员会(FTC)此前曾向司机发出警告,提醒他们不要将自己的手机与租来的车辆配对,并敦促他们学会在退还租车或出售自己的汽车之前,将汽车系统“擦”干净。

GreenThely解释说:“汽车在什么时候记录什么,以及在内部系统中存储什么,特斯拉在这方面并不是超级透明的。你可以选择退出所有数据收集,但之后你就失去了软件更新和其它一大堆功能。因此,可以理解的是,没有人会那样做,甚至可能包括我在内”

数据知情权不清晰,作为车主不知道自己购买的汽车处于什么状态;二手零件数据抹除不彻底,车主隐私信息伴随着二手零件在不同人之间流转。

根据今年两会上海市信息安全行业协会会长谈剑锋提交的《关于加强对智能汽车数据安全监管》提案中的统计数据称:特斯拉可以采集覆盖车主个人信息、车辆环境信息、车辆行驶信息、车主手机信息等200多项信息,国内同类厂商也采集有170多项。

大量的信息数据被采集用来支持自动驾驶,但是即使如此,自动驾驶却依然难以实现。

难以自由的自动驾驶  


自动驾驶的稳定性和车主们的隐私安全一样,也是一个不可知的数据黑盒。

以一直对外公开宣称自动驾驶的特斯拉为例,3月6号马斯克称特斯拉完全驾驶系统测试版已经发布。但是内测版本推出不久后,在一段测评博主13分钟的公开视频中,自动驾驶模式下的特斯拉汽车在美国加州某街道状况频出。

3月23日,在中国台湾的特斯拉Model 3车主在当地试用自动驾驶功能时发生事故,车辆在闯过红灯后撞上多台横向行驶的摩托车,并最终翻车。此前一周内,另一辆特斯拉Model3在美国密歇根州撞上了一辆静止的警车,引来了美国国家公路交通安全管理局的调查。

3月18日,美国国家公路交通安全管理局正式宣布,该机构已针对27起特斯拉自动驾驶系统的安全事故进行调查,其中至少有3起是最近数周内发生的。

事实上,从2016年开始,自动驾驶相关的安全事故就不断发生。

2016年1月20日,京港澳高速河北邯郸段发生一起追尾事故,一辆特斯拉轿车直接撞上一辆正在作业的道路清扫车,特斯拉轿车当场损坏,司机高雅宁不幸身亡。历时一年多,2018年2月27日,特斯拉确认事故发生时车辆开启自动驾驶功能。

2016年5月7日,佛罗里达州一名司机因传感器和摄像头系统未能检测到一辆横穿马路的大货车,从而没有采取制动而丧生,引发了对特斯拉自动驾驶技术的诸多质疑。

2017年3月24日,Uber的一辆自动驾驶车在路试时与另一辆SUV发生碰撞;2017年8月26日,Google自动驾驶汽车发生过十几次的交通事故。

自动驾驶难以实现,自动驾驶的事故原因却基本都是人为。

2020年1月份,美国国家公路交通安全管理局(NHTSA)收到一份特斯拉“意外加速”的事故请愿书,仅美国单一市场涉及123辆车和110起撞车事故,52人受伤。

报告中称,当车主试图将特斯拉车辆停在车库或路边时,车辆发生了突然加速事件。还有一些车主表示,突然加速发生在交通行驶过程中或使用自动驾驶辅助系统时,最终导致撞车。涉事车辆包含2013年至2019年生产的特斯拉汽车,Model 3、Model S和Model X车型。

此后,美国国家公路交通安全管理局经过一年详细评估后认为:绝大部分事故案例,并非因特斯拉车辆的技术故障所造成,都是由车主误操作所导致,并且特斯拉的设计也不会提高车主误操作的概率。

根据新浪科技报道:“数据包背后的事实,完全依赖于工程师的解读与还原。”这或许也是车主对于特斯拉缺乏信赖的原因—特斯拉提供给车主的检测报告并不完整,且依赖于自己的工程师的解读。

一方面依靠自己的数据,特斯拉几乎所有的检测报告都把问题指向车主;另一方面,依靠发布季度数据报告,特斯拉在证明自动驾驶越来越安全。

根据特斯拉发布的2020年第四季度报告显示“有Autopilot功能的车辆,每行驶345万英里记录了一起事故。对于那些没有Autopilot但使用我们的主动安全功能的驾驶者,我们每行驶205万英里就记录了一起事故。对于那些没有Autopilot功能,也没有主动安全功能的驾驶者,每行驶127万英里就会发生一起事故。相比之下,NHTSA的最新数据显示,在美国,每48.4万英里就有一起汽车事故。”

自2018年以来,特斯拉一直通过发布这样的报告,对比自动驾驶与非自动驾驶时的每次事故里程数,为其在自动驾驶安全方面的改进打造一个标杆。但是根据外媒报道,对于数据的真实性也有不少人存疑。

在2017年特斯拉给美国国家公路交通安全管理局(NHTSA)提供数据时,曾经被美国一家咨询公司QSC发现特斯拉汽车向NHTSA提供的两个数据点有问题:在安装Autopilot系统之前里程表的最后一个读数,和安装完成之后的里程表第一个读数不一样。

简单来说,就是特斯拉对统计数据做了手脚,导致NHTSA的数据完全不可信。根据QCS的统计,特斯拉向NHTSA提供了43,481辆车辆的数据,这些车辆中有69%缺少激活Autopilot前的行驶里程数据。
除了一直宣称自动驾驶的特斯拉,国内对标特斯拉的几大智能厂商,比如理想汽车也曾在2020年青岛因为辅助驾驶发生事故。

即使如此,画大饼吹大牛,依然是加快自动驾驶的方法之一。因为在业内人士看来,只有上路才有数据,大量的数据才可以推动自动驾驶的发展。

自动驾驶还差什么  



相比电动汽车经常强调电池技术用来缓解车主里程焦虑,自动驾驶汽车喜欢强调数据量,数据量也成为作为衡量一个厂商自动驾驶能力的标准之一。

数据就是AI的燃料,但是对于车主们来说,即使把个人信息数据全权托付,自动驾驶却一再延期。即使激进如马斯克,也在频发的特斯拉事故中从中国官方下架了自动驾驶的宣传噱头。

那么数据喂养究竟能不能养出自动驾驶呢?根据业内的共识划分来看,一辆汽车想要实现自动驾驶大致分为三步:感知识别→决策规划→控制执行,其中最大的困难和瓶颈就来自于感知识别。

行业内目前主要分为两个派系:一个是以特斯拉为主的视觉派,就是采取类似人的感知模式,通过神经网络的学习,不断进化外界感知能力,提高自动驾驶水平。另一个是小鹏汽车为主的激光雷达系,通过反射形成的“点云”数据集合感知外部,实现自动驾驶。

视觉派系的主要优点是硬件便宜,但是因为软件类的神经网络训练时间长、数据集昂贵,所以特斯拉后续的全套FSD更新,有人预计大概能达到20万美元,所以特斯拉也被称为未来卖软件提高收入的车厂。

业内人士分析认为:通过数据喂养可以不断地支持特斯拉进行神经网络算法的迭代,但是只有数据喂养的训练却远远不够。更多的基础设施,实现车辆之间的信息互相交换,车辆和道路之间的信息协同才是车联网自动驾驶的未来。

对于自动驾驶来说,不管神经网络算法多么强大,数据集训练多么完美,还有一个不可避免的问题是都会面临AI上的无限逼近。简单来说就是只能无限逼近100%的正确性,却不能如同现在0、1二进制计算机里永远100%的机器正确性。

人类容许自己犯错误,但是对于自动驾驶来说,无限逼近的安全性究竟是多少还没有结论。

不过根据传统汽车厂商ISO安全认证的经验,对于安全性,取人类生存率最高的10岁为标准,只要汽车的安全性高于10岁时人类的生存率就认为足够安全。

关于自动驾驶,可能在到来之前,我们还有很多标准需要完善。比如数据隐私、比如安全标准,而不仅仅只是一个SEC的自动驾驶等级划分。



旗下账号推荐


「新熵」

新浪科技创事记年度作者

网易科技态度风云榜年度作者 

WeMedia年度十大影响力自媒体

百家号百家榜、优选计划、鲲鹏计划获奖者


浏览 19
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报