这两天Uber事件将“无人驾驶技术”推向热搜,根据美国警方发布声明中提到坦佩市警察局长西尔维娅·莫伊尔(Sylvia Moir)在接受采访时称:“基于受害人是从阴影中突然出现在马路上的,很明显,在任何一种模式(无人驾驶或人为驾驶)下,都很难避免这种碰撞。”一时间无人驾驶的技术被质疑。各方无人驾驶领域的从业者发声探讨无人驾驶技术还需要更好的传感器来完善,但又说不出来更好的传感器是什么?但其实这种传感器就是远红外传感器,送上这篇技术贴是目前为止见到的最好分析,也落实了解决方案。
现有无人驾驶技术路线优缺点
目前,国际上自动驾驶环境感知的技术路线主要有两种:一种是以特斯拉为代表的毫米波雷达主导的多传感器融合方案,另一种以高成本激光雷达为主导,典型代表如谷歌 Waymo。我们来分析一下这两条线路对前方路况分析所使用的传感器:
特斯拉的无人驾驶方案以毫米波雷达+可见光摄像头为主,最开始有MobileEye的参与,以可见光摄像头为主,毫米波雷达作为辅助。出现撞卡车事件后,Tesla改为毫米波雷达为主,可见光摄像头为辅。
谷歌的方案基本上是以激光雷达为主,毫米波雷达为辅,可见光摄像头几乎不参与。谷歌似乎对可见光摄像头一直不感冒,即使涉及到物体/行为识别,谷歌仍倾向于用三维激光雷达。
从上面我们可以看出目前市面上主流的前向路况检测主要依靠以下
三种传感器:毫米波雷达、激光雷达以及可见光摄像头,且只是两个传感器融合。下面我们来分析一下这三种传感器的优劣势:
上表中可以看出,目前主流的针对前向的传感器融合方案都有一个显著的缺点:在恶劣天气情况下,只有毫米波雷达一个单传感器可以起到作用,而毫米波雷达自身又难以识别行人。故现有的技术方案只能在正常天气下工作,在恶劣天气环境下(特别是光线不好的情况)会对路上行人的生命会造成极大的威胁。
所以面对这种既要能在夜晚和恶劣的天气情况下,解决视觉和行人识别的问题。看似无人驾驶未能找到解决方案,但其实我们忽略了,夜视传感器中的远红外传感器。因为远红外技术只考虑观测主体与环境之间温度差,可以不受光线情况影响。
远红外热成像技术成像效果
远红外热成像原理,通过能够透过红外辐射的红外光学系统将视场内景物的红外辐射聚焦到能够将红外辐射能转换为便于测量的物理量的器件--红外探测器上,红外探测器再将强弱不等的辐射信号转换成相应的电信号,然后经过放大和视频处理,形成可供人眼观察的视频图像,最终通过显示终端显示、音响设备报警的夜间辅助驾驶产品。
远红外热成像系统下的行人检测效果图
小结:惨痛的事故背后,免不了对无人驾驶技术的诸多质疑,但同时,又是促成该领域不断完善的最大动力。饱含敬畏,大胆创新。