您的位置: 渝中信息网 > 育儿

盖世直播陈文涛基于图象识别的低成本辅助驾

发布时间:2019-10-16 23:44:22

【盖世直播】陈文涛:基于图象识别的低成本辅助驾驶方案

青岛慧眼信息科技有限公司市场部总监 陈文涛

为什么说是低成本?因为我们是一个做图象识别的人工智能公司,而我们所做的辅助驾驶解决方案是基于图象识别和摄象头来做的。现在特斯拉出的Autopoilt2也是基于摄象头、超声波和雷达这几个传感器,他整个系统的成本可以控制到几千美金以内,而且可以做到L5的程度。我们作为一个图象识别的公司,我们也是做基于单目的ADAS,我们也是觉得图象识别在自动驾驶这个市场方向可以发挥更大的作用,同时也可以让整个自动驾驶的成本大大下降。

上午很多专家也讲我国汽车的保有量处于非常大的水平,同时它的增长量也可以达到两千到三千万辆的水平,自动驾驶和辅助驾驶也是现在的一个热点,自动驾驶细分来讲有五个阶段,我们现在做的半自动驾驶是属于ACC、AEB等等这些功能可以归到第二阶段。我们基于摄象头实现这个功能,可以基于摄象头实现低成本的AEB、ACC的功能,以及现在正在研究的一机多目的方案,使用多个摄象头包围整台车,在360度都具备目标识别的功能,替代全向激光雷达的功能。

自动驾驶的模块可以分为感知、决策、和控制三个,中间还包括有一些融合方面的模块。我们现在的研究方向是前置融合。进行前置融合有一个特点,可以利用各个传感器之间的互补关系,降低对单个传感器性能的依赖。这是我们现在做的方向,通过不同低成本的传感器提升整个系统性能同时降低成本。像摄像头、毫米波、激光等等都是常见的传感器,各自的优势也是非常不一样的。摄像头的特点就是具备目标的辨识能力,还有物体的大小等等,但是它会受到天气,白天夜晚的影响,毫米波雷达的穿透性比较好,但是在弯道或者一些车道线方面不具备这个能力,只能通过前方目标的运动轨迹,通过大量的数据来实现正确的目标选择,像激光雷达有成本方面的问题,未来是可能可以去到最低五百美金一个,但是具体还是未知的。

现在自动驾驶有两个不同的方向,以谷歌等以激光雷达为主的传感器实现的完全从上层切入向下发展的无人驾驶的方向,第二个是用低成本的传感器,量产的成熟的包括光学摄像头、超声波雷达、毫米波雷达等,依靠算法和整个系统合理的传感器的布置,从辅助驾驶开始往自动驾驶方面发展。在辅助驾驶或者自动驾驶里视觉的优势有很多,他主要可以识别车辆车道甚至车内的疲劳驾驶等。

现在自动驾驶发展的趋势环境是越来越复杂的,我也想稍微说一下之前特斯拉遇到的两个事故,第一个是在美国,在美国那个是撞上了一辆白色的卡车,他有一个77GHz的毫米波雷达,同时配备了一个摄象头,在远距离的时候毫米波雷达置信度比较低,视觉又识别不出来白色卡车,到近的时候毫米波雷达因为是一个比较窄角,只有十来度,卡车的底盘比较高,这个毫米波雷达从底盘穿过去了就没有检测到,而视觉又识别不货车,事故就出现了。另外一个是在国内撞上路边的工程车,这个工程车在特斯拉的视觉里只有半辆,毫米波雷达跟工程车也是擦身而过,两边都没有判断出前面有一个障碍物。这个锅基本上是视觉来背,所以很多同行业的人问到是不是就说明视觉在后面一定会被淘汰或者处于一个边缘的位置,在我看来,反而这是是视觉成为低成本解决方案的契机。为什么这样讲?因为在以上两个场景里有一些原因传感器的角度问题没有判断到,这个是可以通过增加传感器来解决,第二个问题,可能是那些目标不具备识别能力,因为我们现在AEB或者ACC已经量产的成熟方案里大多数都是采用传统算法来做,我们现在正在研究的一个方向利用深度学习做自动驾驶,那么深度学习有一个优势,像半个车或者从旁边切线过来的只是露出一个车头的车辆都可以比较好的检测到。如果以这个维度来检验现在的视觉算法,半个车或者只是一小部分的车头目标,可能大部分的视觉算法的检测率都会不到一半。

但是这个在深度学习上面来讲,可能以非常严苛的条件验证它,98%到99%都是没有问题的。深度学习还有另外一个比较好的特点,它可以在同一个系统里增加多个识别的类别,像行人、车辆还有交通标志牌等等,他不会增加系统开销,我只检测车辆,对比增加行人识别,这些在系统上CPU的耗能是一样的,这也是深度学习的优势。未来把深度学习运用在自动驾驶里是一个比较确定的一个趋势。同时的一个方向,我们会在前向配置不同的摄像头,基于不同图象检测尺度我们会用不同的摄像头去做,这样保证多车道的检测能力。这是我们利用深度学习做的一个像素归类的演示,我们把图象上每一个像素归类到相应的类别里。这是基于深度学习的Demo

,可以看到公交车是一个3D的检测,包括车的侧面尾部和车头都可以比较好的检测。

我们从2011年开始做深度学习,主要做了三个事情,第一从开源算法脱离出来到我们自有的算法体系,基于C++重构,第二,把它移植到现有的已经量产的平台上,第三,适应ADAS的需求来进行裁剪和优化,现在已经摆脱了服务器的依赖,可以在车上正常运行。深度学习需要大量的数据,因此我们在全国有很多的数据采集车,同时有一个数据标注团队来标注数据,保证整个数据库适应全国各种复杂的工况。同时我们还可以适配到各个量产的车规平台上。

我们基于图象识别会和像毫米波雷达和激光雷达做一个数据融合,用一个互补的关系降低图象识别或者降低对单个毫米波雷达或者激光雷达的依赖性。同时还有基于传统算法实现低成本的ADAS解决方案。车辆的方面,我们也会结合车道线的识别来实现一个目标的选择,同时我们会结合车辆的运动学建模,建立符合运动趋势变化曲线,我们根据这个运动学建模会实现AEB、ACC等运动模式。交通标志牌检测我们现在可以做到40米。

同时我们还会把ADAS以SDK的形式提供像后视镜行车记录仪等等厂商。这是我们现在做的产业研究方向,以图象识别为核心,多摄象头的融合,结合多传感器的融合,进入到一个决策规划的阶段实现一个自动驾驶。这是我们在道路上的一个实测视频,我们实际在做AEB和ACC的过程中遇到了一些比较工程化的实际问题,就像我们的车辆在走的过程中可能会遇到道路颠簸或者坡道的起伏,这个时候对于图象算法里最困难的问题可以说是测距,这个中间过程中会带来一个很大的问题,我们会利用一些像一个车辆里的多点跟踪的算法来对它进行距离的校正和整个目标的运动趋势的跟踪,基于这个实现AEB和ACC。

我的演讲就到这里,谢谢大家!

敬请关注汽车“2016汽车与环境创新论坛”直播专题:

站专题链接:

WAP站专题链接:

提示:本文为现场速记,未经专家审核,请勿转载!

本文版权为汽车所有,欢迎转载!请务必注明出处(汽车)及作者。

文章标签: 汽车与环境 图像识别 慧眼科技 摄像头

薏芽健脾凝胶疗程宝宝不消化怎么办小儿积食发烧症状

七台河治疗性功能障碍费用
白山治牛皮鲜好的医院
德阳牛皮癣医院哪家最好
淄博治疗宫颈炎医院
鸡西治疗宫颈炎费用
猜你会喜欢的
猜你会喜欢的