AutoR智驾 2019-06-19 17:57
对标 Mobileye,百度Apollo L4级自动驾驶纯视觉解决方案Apollo Lite来了
分享
Apollo Lite城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。

Mobileye有真正的竞争对手了。


在美国长滩举办的全球计算机视觉及模式识别领域顶级学术会议CVPR 2019(Conference on Computer Vision and Pattern Recognition)上百度Apollo公开了环视视觉解决方案百度Apollo Lite。


这是国内唯一的城市自动驾驶纯视觉城市道路闭环解决方案。


据悉,Apollo Lite城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。


微信图片_20190619171531.jpg



Apollo技术委员会主席王亮介绍称,“经过前期的技术研发投入和2019年上半年的路测迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。”

 

据了解,Apollo Lite已经在北京稻香湖等多地多路段落地测试。在路测过程中,测试车辆数目、累计测试里程和车辆在城市道路上的闭环自动驾驶表现优异,可与全球最大的ADAS(高级辅助驾驶技术)供应商Mobileye提供的纯视觉解决方案相媲美。



相比旋转式激光雷达感知方案,视觉感知方案价格低且便于获得,这套低成本近车规级环视感知方案也能够降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度。


可以认为,这套方案具备高性价优势。

 

摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。


图片9.png




王亮表示,“百度Apollo始终坚持多传感器融合的技术路线。在L4级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。”


不过,从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。



现今很多传感器融合的方案设计较为复杂,技术人员往往从快速解决问题的角度出发设计算法,这个过程中难免避重就轻的利用异构数据各自的优势进行缺陷互补从而绕过困难的问题。


图片6.png




基于这种思路设计的多传感器融合方案虽然能够在短期规避单传感器方案难以解决的问题,长远看,数据和策略间深度耦合的设计不利于为环境感知系统提供真正意义上的冗余(true redundancy)。


传感器融合意味着多套能够独立支撑全自动驾驶的感知系统强强联手,独立工作相互校验,最大概率的保证感知结果的准确性和完备性。




王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统true redundancy的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。


在传统激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。


图片8.png


今天通过Apollo Lite打磨迭代的纯视觉技术正在持续反哺百度坚持的多传感器融合解决方案,提升无人驾驶系统的鲁棒性和安全性。

 

技术的发展无疑是自动驾驶产业的必备要素,而在技术进步的同时,为企业和开发者打造低价、易获取的解决方案,更是推动产业发展的重要一环。


不过,相比较百度多种方案齐头并进的方式,特斯拉是一个反列,4月23日,特斯拉发布了“全自驾计算机”(full self-driving computer),也就是: Autopilot 硬件 3.0 。同时,在会上马斯克马斯克在会上称:“只有傻瓜才会用激光雷达”。


而曾经也是以纯视觉为主的以色列公司Mobileye也开始做雷达摄像头融合方案,从纯视觉到融合,再从融合到纯视觉,自动驾驶解决方案如何正确应对不同场景依旧还处在探索阶段。


图片10.png



CVPR期间,百度Apollo还公布了ApolloScape最新进展,目前ApolloScape已经发布了五个公开数据集包括场景解析,细粒度车道线,定位,三维车辆拟合和稠密轨迹。

 

据悉,ApolloScape中的场景解析(scene parsing) 数据集包括了14.7万帧的具备逐像素语义标注的图像,相对于包括Waymo在内的仅具备矩形框标注的数据集,像素级标注提供了更为细致的而且不受物体间的遮挡影响的场景信息,旨在推动更为精准的视频场景语义理解技术。


除了二维视频图像,其每帧相关的三维点云也被逐点标注了语义信息。另外,图像的逐像素标注的时间工作量超过了矩形框标注的工作量十倍以上。

 

图片14.png

 

道路线是一项基础的路面元素, ApolloScape 车道线数据集提供了28类不同的道路线分类的逐像素级别和以及三维逐点级别的数据集,这是目前所有公开数据集都不具备的标注信息。

 

无人车需要精准的定位系统用以获取一系列信息,例如自身的位置,前方的情况,以及行驶区。


其中定位精度一般需要控制在10厘米以内以避免出现碰撞和车道偏离的情况。ApolloScape自定位 (self-localization) 数据集提供了近30万张带有高精GPU/IMU信息的覆盖近28公里的图像。

 

此外,如何利用图像快速感知周围车辆的三维位姿对于自动驾驶也至关重要。 


图片12.png


为了推进此问题的研究, 百度推出ApolloScapeCar3D数据集,此数据集采集于中国的不同的城市,包含5277多幅真实驾驶场景、6万多车辆的三维标注数据。


除了车辆的三维位姿之外,百度还同时开放了真实三维车模型,66个三维/二维车辆关键点数据。接下来,我们或进一步开放部件级别的、稠密的三维车辆标注。

 

ApolloScape的物体轨迹跟踪数据集提供了图像和点云上的物体运动轨迹,其涵盖了不同的光照条件以及大量的车/人/骑行混杂的交通流,旨在推动物体跟踪以及运动行为预测技术。轨迹数据全长到2.5个小时,这个比现有的最大的轨迹数据集(NGSIM)大了三倍。

 

百度官方介绍称,自2018年3月的发布以来,ApolloScape数据集已经被全球范围内下载上万次。


x

收藏 0
打赏
相关标签:
电话:010-65030507
邮箱:editor@autor.com.cn
地址:北京市朝阳区朝外大街乙6号朝外SOHO D座5097室
北京智驾时代传媒科技有限公司          Copyright © 2014 - 2022
Autor.com.cn All Rights Reserved. 版权所有 AutoR智驾 智能汽车网
京ICP备14027737号-1      京公网安备 11010502038466号
电信与信息服务业务经营许可证:京B-20211307
关注官方微信