智能驾驶,车载摄像头替代激光雷达,激光雷达替代摄像头这个话题近期是市场上争论最多的话题之一!
今天我们就来分析一下到底谁有理?
其实原本这个问题并没有争议,多传感器融合是大家都认可的方向。可是随着XX拉坚持只使用摄像头来实现后。行业中就开始争论这个话题了。未来到底是使用摄像头还是激光雷达呢?
XX拉认为,视觉才是最接近人眼的东西,人能够靠眼睛来开车,那么自动驾驶也一样,只要提升视觉技术水平就能满足智能驾驶的需求。为此,XX拉专门研发了一颗AI芯片DOJO,采用的是台积电7nm的工艺,芯片面积645毫米,500亿个晶体管,BF16/CFP8峰值算力达到了362TFLOPS,FP32峰值算力达22.6TFLOPS。而XX拉最终想要打造一套系统由视网膜、多目视觉的视交叉、视叶神经束等一系列复杂的神经网路。
激光雷达派则认为在黑暗、强光下、雪、灰尘或大雨天气情况会削弱摄像头的能力。而激光雷达则不会受天气影响。在测量距离方面,激光雷达会比摄像头更稳定。
目前,激光雷达主要是由激光发射单元和激光接收单元组成,发射单元的工作方式是向外发射激光束层,层数越多,精度也就越高,不过这也意味着传感器的尺寸越大。发射单元将激光发射出去后,当激光遇到障碍物会反射,从而被接收器接收,接收器根据每束激光发射和返回的时间,创建一组点云,高质量的激光雷达,每秒可以发射200多束激光。
在于激光的波长方面,目前主要使用的波长为905nm和1550nm的激光发射器,波长为1550nm的光线不容易在人眼液体中传输,因此1550nm的激光可以在保证安全的前提下大大提供发射功率。大功率也就能探测到更远的距离。同时在抗干扰方面也更强。但目前在量产方面还较为困难,所以目前更多的是使用Si材质量产905nm的LiDAR.通过限制功率和脉冲来保证安全性。
激光雷达在结构方面主要有控制硬件DSP、激光驱动、激光发射、发光二极管、发射光学镜头、接收光学镜头、APD、TIA和探测器。在成本方面光学组件和旋转机械占据了激光雷达的大部分成本。
而在自动驾驶中,激光雷达通过发射脉冲形式的光,并通过分析返回信号的飞行时间来测量范围与距离。并传输到主控端,来实现控制测速、避让、车道保持、盲点监测、车道偏离警告等;同时,激光雷达还可以通过提供进一步的对象分类、横向分辨率和黑暗穿透来完成信息采集。当然更多激光雷达派认为是因为摄像头本身价格相较于激光雷达是非常便宜的。所以认为摄像头派主要是考虑的成本问题,而非智能驾驶本身。
而视觉派则认为,激光雷达可以识别物体的形状以及距离。但是并不能识别具体是什么物体以及道路标志等。同时摄像头是最接近人眼睛的部件。只要努力实现技术突破,未来使用摄像头足以。不需要使用激光雷达。毕竟激光雷达的成本相较于摄像头是高不少的。既然摄像头能实现,完全没有必要使用激光雷达。
通过以上介绍,其实可以明显看出两者之间存在的优势与特点。首先,不得不承认现阶段摄像头在应对复杂环境的能力是不如激光雷达的。而激光雷达也无法精准的识别外界的物。摄像头派所认为的完全是基于人本身的部分能力来思考的。比如现在遇到浓雾天气或者是暴雨天气人会做出今天不开车出门的决定,如果在路上可以选择到附近的地方休息或者选择合适的地方休息。如果纯摄像头且不说达不到人的智能程度,如果真达到了也未必是好事。
而激光雷达对外界的物的识别上,是存在天然的问题。虽然可以通过三维建模以及算法来进行识别。但是只能识别形没办法识别神。比如路上有一块泡沫,激光雷达就难以识别出到底是泡沫还是石头。
多传感器融合是趋势!
其实,这两者之间还真没有什么争论的意义。多传感器融合才是未来的发展方向。首先,人在浓雾、大雨天气的时候无法出行。在黑暗的环境下行驶速度会比较慢。甚至人还可以根据自己的想法选择自己最想要的想法。那么如果只使用摄像头,未来,即使技术达到了人眼的识别能力,也只能做同样的选择。如果使用多传感器融合,那么未来即使在浓雾或者大雨天气也一样可以出行。这对交通工具来说,本身也是一种进步!