1
本文作者: 张伟 | 2016-09-14 09:00 | 专题:GPU引爆中国新兴企业——GTC CHINA2016大会专题 |
前英特尔中国研究院院长、驭势科技CEO吴甘沙在Nvidia GTC大会上演讲
当吴甘沙的身份变成驭势科技CEO之后,他也成为各类自动驾驶论坛的常客,此次Nvidia在京举办的GPU技术大会,便有他的主题演讲。从现场的幻灯片来看,大致内容与以往相比无太大变化,有一些小更新,我们来回顾一下。
与业界多数人观点一致,吴甘沙认为人工智能是未来大趋势,2016年的人工智能相当于1996年的互联网和1976年的PC,后两者分别引领了20年的数字化和网络化,接下来的20年将是人工智能波澜壮阔的20年。
笃定智能驾驶的未来
在吴甘沙看来,未来5到10年,智能驾驶的市场辐射规模将是最大的,而且社会效应也会最卓著。因为在2020这个重要的时间节点,多数车厂都会推出新的车型,带动激光雷达的订单增长,从而将单价从75000美元压缩到500美元以内,推动自动驾驶汽车的量产。
在过往的多次演讲中,吴甘沙已经阐述了其对智能驾驶发展阶段的界定:
吴甘沙眼中的智能驾驶发展阶段,这一次他没提203X年(制表:雷锋网)
目前我们还只经历了前两个阶段:从驾驶辅助到辅助驾驶。二者的技术要求也有很大不同。
1、驾驶辅助重要的是误报率要低,而漏报率则并没有那么重要。
2、辅助驾驶漏报率必须是0,同时其误报率也必须非常低。
因为一次漏报就可能车毁人亡,而莫名其妙紧急刹车则非常影响体验,同时很危险。
1、驾驶辅助只需要视觉传感器来做感知。
2、辅助驾驶需要视觉、毫米波/超声波雷达等多传感器融合来做感知、规划、决策及控制等一系列动作。
▼
如今,多数厂商都想在辅助驾驶上做得更好。
吴甘沙照例以特斯拉在5月份的首起自动驾驶撞车事故为例阐述了目前解决方案的一些弊端:因为摄像头和激光雷达存在不可避免的缺陷(比如不能清晰辨别出前方是车身还是桥梁)而酿成悲剧。目前特斯拉也正在不断升级其辅助驾驶系统。
针对此,吴甘沙给出的方案是:
1、通过深度学习算法,进行车辆识别、行人识别、标识牌识别以及车道线识别,无论远近、类型、角度还是有无遮挡都能识别,感知环境能力更强。但是当其他车辆从本车的侧后方出现时,很难识别出来,这个时候,深度学习算法也是有缺陷的。
2、基于立体视觉的算法,通过立体摄像头进行车辆捕捉和识别,深度学习算法的缺陷就被弥补了。并且还能识别出不平整的道路表面。
三目立体摄像头(左中右三个摄像头)
3、建立一个多任务的识别网络,将深度学习算法和立体视觉算法组合在一起,系统性对行人、车辆、标示、车道线等进行识别。
而且,他正在建立一个全面的世界模型,可以识别不同国家、地区道路上的突发状况(例如澳大利亚袋鼠跳到路上、中东地区的骆驼闯入道路等),同时将深度学习算法融合进去,令辅助驾驶表现得更好。
全面世界模型
除去以上路面检测部分,还有可行驶区域(道路的可行驶范围)以及非结构化道路(雪天的道路边界被掩埋)的检测,这个时候也需要深度学习算法来让检测更加精确。
▼
识别与检测方案给出后,接下来要解决定位与地图的问题:达到分米甚至厘米的精度。
定位方案
目前很多厂商使用惯性导航系统与GPS RTK(高精度GPS)作为解决方案,可以给出准确的定位信息。但是目前惯导系统基本上价格非常昂贵,并不是最优解。
吴甘沙认为,使用视觉里程计代替惯性导航系统,也能实现不错的效果,准确率很高。目前他的团队正在做这件事。
地图方案
区别于Google和其他地图厂商的高精度地图,目前吴甘沙给出的地图方案是:
1、基于Landmark(即道路标识:道路两旁的标牌);
2、基于Lanemark(上帝视角鸟瞰“Bird View”道路表面的标线),精度达到10cm的级别。
这种方案的地图采集设备价格较低、定位设备价格较低且实时更新,是为自动驾驶专门制作的地图。
▼
吴甘沙还提到,目前摄像头还有很多创新的机会,可以借鉴自然界一些鬼斧神工的创造比如:苍蝇的腹眼、老鹰的超远距离眼、变色龙的360度环视眼、哈士奇的夜视眼。
未来,一辆车身上将有6-8个高精度摄像头,分辨率超过750万像素,与毫米波/激光雷达更好地进行融合,在异构视觉融合方面做得更出色,服务于自动驾驶甚至无人驾驶。
最后,他认为,并不是最好的深度学习算法就是最适合解决问题的(方案),软件和硬件要针对问题进行适配。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。