夜间场景,自动驾驶值得一说的「好故事」?

共 3895字,需浏览 8分钟

 ·

2021-10-10 21:48


夜间场景,似乎成了玩家们体现自家自动驾驶先进性的佐证,又或是成了其在商业化落地上另辟蹊径的切入口。 




作者 | 苏珊珊

编辑 | 伍文靓

起跑的发令枪早已响起,但自动驾驶并非一次短跑比赛,而是一场拉锯式的马拉松赛事:越是赛程中途,投以关注的目光与掌声越是稀少。

事实上,无论是今年以来的量产落地预告,还是一众企业集体“转道”货运的尝试,都可看作是玩家们试图重新吸引资本与外界关注的方式。

只是,当越来越多玩家加入其中,相似的信号在业内被不断地重复释放,这或许就成了再乏味不过的“老调重弹”。

要想牢牢抓住他人的视线,源源不断的好故事与新噱头不可或缺。

面向夜间场景的自动驾驶技术和落地应用,会是下一个吗?

1


夜间自动驾驶背后的“大众”需求

自动驾驶技术面世以来,无数从业者都在不断重申的其中一项技术使命即是减少交通事故、提高道路安全性。

Waymo的一项研究曾指出,当前94%的碰撞事故都是由人为失误导致,而通过使用自动驾驶系统代替人类驾驶员可以有效改善道路安全。

而夜间作为车祸事故高发的驾驶场景,无疑对自动驾驶技术有着天然的、更加旺盛的需求。

虽然夜间道路的总体交通量相比白天有所减少,但司机因此开快车或酒驾的可能性也将随之上升。叠加上夜晚能见度低、司机夜间易疲劳等因素,驾驶员在此时更容易出现误判路况、瞌睡分神的状况,夜间行驶也就因此变得更为危险。

国外统计数据显示,虽然晚上的交通量相比白天减少了约60%,但事实上有40%的致命性车祸都发生在夜间。

另有数据显示,中国近年来每年都会发生将近20万起交通事故,其中60%均发生在夜间,造成的死亡人数占比达50%。

提升夜间行驶的安全性,迫在眉睫。而这自然也成了致力于提升道路安全性的自动驾驶系统必然绕不开的应用场景。

目前,一众自动驾驶玩家集中火力猛攻的货运、矿区、港口等细分落地场景,也已经涉及到了不同程度的夜间作业刚性需求。

2


夜间应用背后的“大”难题

夜间场景一直被业内视为自动驾驶技术突破的“老大难”。

其最大的障碍就在于,作为目前自动驾驶系统主要传感器之一的摄像头,在夜间的可靠性会大幅降低。

元戎启行CEO周光曾对新智驾表示:“夜间场景的技术限制主要体现在光线不足,摄像头捕捉的图像十分模糊,因此对车辆和行人等环境变化的感知会相对较难。”

基于这一原因,车灯的夜间照明功能也会对视觉传感器带来较大的影响。

世界人工智能专家Lance B. Eliot博士在一篇文章中提到,自动驾驶车辆的车前灯在夜间环境下变得尤为重要。若是前灯形状不佳或被灰尘、污垢等遮挡,就会对图像处理产生严重影响。同时车辆后部由于直接照明条件不佳,相关的图像捕捉工作也会是一个挑战。

此外,他还指出,夜间驾驶环境中,来自路灯、车灯或其他镜子一样易反光物体的光反射和光畸变也会影响传感器的视觉识别。

除了会影响实时行驶的感知识别,夜间环境还会在图像语义分割、模型训练等环节给自动驾驶技术的优化迭代带来难题。

具体来说,与白天的图像相比,夜间采集的图像将存在更大面积的深色或阴影部分。夜间环境下捕捉到的物体形状,或许会因为光线的原因,显得与白天完全不同。

Lance B. Eliot博士表示,这一现象会影响与物体检测相关的概率:一个在白天会被100%判定为轮椅的物体,到了晚上被识别为轮椅的可能性或许只有60%。

而到了神经网络的训练环节,这一矛盾或许会更加凸显。

上述分析文章指出,如果神经网络只采用白天的物体图片进行训练,那么到了夜间环境,这些物体很可能不会再被神经网络识别出来。

因此,“神经网络的训练需要将较暗环境中的物体包含在内,这一点非常重要。”

3


夜间场景并非“无懈可击”

事实上,针对以上技术难点,业内已经尝试过了多种不同的解决方案。

为了解决摄像头在夜间较为突出的成像模糊问题,不少自动驾驶公司都选择了自研相机模块,以解决图像分辨率低、信号灯颜色校正等问题。

正在推进夜间同城货运场景商业化落地的元戎启行,其自研的车载相机据称可提供多模式高精度时间同步、曝光控制、信号灯颜色校正等核心功能,能在夜间、隧道等光线较暗的场景下提供准确的信息和更丰富的图像。

而文远知行则在一次雨天晚高峰测试中提到,其自研的相机模块,可以根据环境的变化自动调整参数,从而在光线不足、雨水反光的情况下,完成对红绿灯、车灯等交通信号的识别。

除此之外,业内还普遍采用了多传感器融合的技术方案,即借助激光雷达、超声波雷达等其他传感器,与摄像头形成互补,以完成准确度更高的感知检测。

但即便是采用了多传感器融合的办法,自动驾驶车辆夜间行驶的安全性能够因此提高多少,恐怕也没有确切的定论。

Uber路测无人车在2018年导致的一起致人死亡车祸事故就是其中一个例证。

据称,当时Uber的自动驾驶汽车已然搭载了包括摄像头、激光雷达、毫米波雷达在内的多个传感器,但在那场事故中这些优劣互补的组件似乎并没有起到关键作用。

事故视频显示,在即将撞上行人时,Uber的自动驾驶汽车没有自动刹车,也未采取任何避让措施。而车内安全员由于当时正低头观看手机视频,并未注意路况,察觉到意外的时候为时已晚。(不过,该事件发生在 2018 年,相关的感知技术可能在近两年内得到了一定的进步)

事后,有人提出,如果在自动驾驶汽车上加装红外热像仪,或许系统就能准确识别出行人,避免事故的发生。

ReportsnReports的相关资料指出,红外热像仪可以不受可见光影响,同时具有防眩光的优点,在保护夜间行车安全方面具有巨大潜力。

在自动驾驶中,红外传感器可以作为黑暗条件下无法检测行人的摄像头的补充,并且能够弥补激光雷达无法对物体进行分类的自然缺陷。

但目前国内很少有研究L4自动驾驶的公司会在传感器方案中加入红外热像仪。

有业内人士认为,在涵盖了摄像头、激光雷达、毫米波雷达等多种传感器的系统中加入红外传感器的性价比并不高。

理论上,红外热成像技术在识别生命体上更具优势。

但是,由于红外热成像技术主要是通过热辐射收集信息,相比可见光图像,其成像分辨率差、信噪比低,对于径向运动物体的检测能力较差,且现有的红外传感器也存在耐用性差的硬件缺陷。

在激光雷达、雷达都能处理夜间场景的情况下,加入红外传感器或许并不能在此之上大幅度地提高自动驾驶系统在夜间行驶的安全性。

而且,相比成本已经降至百元级别的摄像头,额外增加每台售价近万元的车载红外夜视仪似乎也不划算。

更何况,传感器间的融合也并非“1+1=2”那般简单。

一般来说,传感器的数量和种类越多,汽车就能收集到越多、越全面的环境信息。但在实际应用中,传感器并非多多益善。

针对Uber的这起致命性事故,美国国家运输安全委员会的调查报告显示,车祸发生前Uber的自动驾驶系统其实已经检测到行人,但却将行人错误地识别为“车辆”和“其他”物体,并在之后的物体分类上发生了混乱,在数个不同的结论间摇摆不定,以致于系统一直无法准确计算目标物的行动轨迹,一再错过刹车的时机——当然,更为关键的是,当时Uber还禁用了车上的自动紧急制动系统。

这和Lance B. Eliot 博士在其文章中提到的问题类似:“如果摄像头显示路边似乎没有行人(也许只是图像太暗,没有现成的方法可以检测到站在阴影中的人),但雷达检测到那里可能存在某些东西,而传感器融合系统必须作出决策,那么它是否应该根据雷达的结果,提示那里有行人?”

就此来看,对于自动驾驶系统而言,信息并非越多越好。来自不同传感器的不同结论,很可能会造成系统混乱。

曾有业内人士表示,“除了成本因素之外,不合理的传感器组合也会带来相互之间的干扰。而除了感知传感器外,车辆上还搭载控制传感器、环境传感器等,各类传感器的信号传输、功耗散热等都需要设计考虑。”

而且元件越多,整个系统出现故障的概率也会随之提升。

安森美半导体的高管Sandor Barna曾表示,多个传感器的校准及协调,是设计多传感器系统的挑战之一。

故而,在仅仅依靠车辆自身的感知系统之外,Lance B. Eliot 博士提出,V2V也是一种不错的解决办法。

他认为,自动驾驶汽车之间的通信交流,可以实现车辆在夜间驾驶条件下的互帮互助。

举例来说,“当前方行驶的自动驾驶汽车已经发现有一个行人站在人行横道上,但你的自动驾驶汽车却因为黑暗或角度的问题无法完全确定,那么前方车辆可以与你的车分享这一信息。交叉共享将在集体和协作的基础上,帮助AI增强夜间驾驶的性能。”

4


结语

就目前来看,夜间场景其实天然存在对自动驾驶的商业需求,只是在实际应用和技术突破中尚存难点。

不过,物以稀为贵。这也刚好可以让一些玩家针对这一应用场景空白,构筑高壁垒。

眼下,似乎已经有不少玩家意识到了这一点:从滴滴、AutoX、文远知行的Robotaxi夜间路测,到百度Apollo在沧州、北京等地开启Robotaxi夜间运营,再到元戎启行近日宣布进军夜间同城货运,“夜间场景”似乎成了玩家们体现自家自动驾驶先进性的佐证,又或是成了其在商业化落地上另辟蹊径的切入口。

或许,谁能率先抢占夜间自动驾驶技术的桥头堡,谁就更有可能借夜间场景应用的新噱头,讲出一个好故事。

本文由雷锋网原创,作者:苏珊珊。申请授权请回复“转载”,未经授权不得转载。


END

推荐阅读

那些用推荐引擎改变世界的人


AI 人才越来越不值钱了吗?


解决中国“卡脖子”问题:研究求解器的少数者





浏览 17
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报