2
CVPR 2016正在拉斯维加斯如火如荼地举行,关于它涌现的前沿技术,雷锋网已经在上一篇文章《 CVPR 2016:这些黑科技在悄悄爆红》中详细介绍;而它涌现的前沿理论,势必要根据前来参加CVPR圆桌论坛的学术大牛们来按图索骥,除了李飞飞为首的女性学术大牛代表队(头条详细介绍),还出现了这些在CVPR上异常重要的学术大牛们。
圆桌1—在图像识别和碎片重组中反馈的重要性
根据知乎介绍,他所在组在做出了高性能PHP虚拟机HHVM。他的主要研究方向是人体行为识别。其个人主页 http://www.mmp.rwth-aachen.de/,大家可以登录去学习一下。
Jitendra Malik为加州伯克利大学分校的教授,1985年毕业于美国斯坦福大学,现任加州大学伯克利分校电子工程与计算机科学系的资深教授,曾于2004年~2006年任该系系主任。Jitendra Malik教授主要研究方向为计算机视觉和生理认知建模,涉及图像分割、视觉组织、纹理分析、立体视觉、物体识别、智能交通系统等广泛内容,在这些领域发表了超过150篇文章,其中有五篇文章引用率超过1000。Jitendra Malik教授已培养了26位博士生,其中不乏国际研究界和工业界的知名教授与专家。
深度学习有很多优势,但在视觉识别领域它能做的工作还不算太多,此次Piotr Dollar和Jitendra Malik在论坛上,主要讨论,目前深度学习用于视觉识别领域优点和缺点,以及如何通过反馈和记忆网络,能让前馈视觉架构有所改善。
圆桌2—视觉问答的挑战(包括视觉,语言和常识内容的回答)
其主要研究计算机视觉和语言问题,且是微软目前「认知」小组的创办会员和唯一的女性研究员。近期她所在小组曾开发新技术:教会AI看图讲故事 http://www.tuicool.com/articles/QJreEfv
谷歌总部研究科学家,曾任英属哥伦比亚大学的算机科学和统计学副教授。他撰写了1100页的教科书《机器学习:概率视角》,这本书获得了2013年国际贝叶斯分析学会颁发的DeGroot 统计科学最佳书籍奖。研究方向包括机器感觉、机器智能、数据挖掘和建模、自然语言处理、以及算法和理论。
其所在小组还曾开发出一款应用,能够告诉你图片中的鸡蛋、土司或者餐盘中的培根拥有多少卡路里。
之前是卡耐基梅隆大学机器人系博士, 前谷歌无人车组的一员。之前因为AlphaGo大战李世石,这位华裔学术青年在国内被人所熟知。
在图片搜索引擎,自动驾驶,计算摄影,视觉图形领域,人机互动领域,场景识别的要求越来越高,此次Margaret Mitchell,Kevin Murphy ,田渊栋在论坛上,主要讨论这个领域最近的创新和创意,讨论焦点包括场景分类,现场对象互动中的建模和识别等。
圆桌3——在自动驾驶上的计算机视觉
前百度深度学习研究院(IDL)副院长,现地平线CEO,2016年3月的时候向外界展示在真车上同时实现车道线/车辆/行人检测的ADAS(智能驾驶辅助系统)产品原型系统讨论主题。这次CVPR讨论的主题也是ADAS相关——密集预测地图中的高性能目标检测以及其在ADAS中的应用。
于2009年获得香港科技大学学士和硕士学位,2013年获得麻省理工学院博士学位。然后去了美国普林斯顿大学计算机科学系当助理教授,再具体的,就是普林斯顿视觉研究组负责人。CVPR圆桌论坛上,其讨论的主题——自动驾驶中的深度学习,(行人)检测,(图像)分割和控制以外的东西。
讨论主题,百度无人驾驶向Level 4进阶的过程。
这三个华裔学术大牛都不约而同地选择了自动驾驶领域的分支圆桌,此次在论坛上,他们将重点讨论密集预测地图中的高性能目标检测以及其在ADAS中的应用,自动驾驶中的深度学习,(行人)检测,(图像)分割和控制以外的东西,以及百度无人驾驶向Level 4进阶的过程话题。
圆桌3——景物理解
2006年从MIT博士毕业,现任University of Texas at Austin的助理教授。这个女孩一年发表7篇CVPR和4篇ICCV文章。
主要讨论内容跟上面圆桌2类似。
圆桌4—大规模场景理解的挑战
早在20世纪80年代末,LeCun就作为贝尔实验室的研究员开发出了卷积网络技术,并展示如何使用它来大幅度提高手写识别能力;目前美国许多手写支票依然是用他的方法在进行处理。上世纪末本世纪初,当神经网络失宠,LeCun是少数几名一直坚持研究的科学家之一。他于2003年成为纽约大学教授,并从此引领了深度学习的发展。
最近,深度学习及其相关领域已然成为最活跃的计算机研究领域之一。LeCun在2013年底加入Facebook负责新成立的人工智能实验室。
大规模场景理解已经成为计算机视觉中不可避免的问题,此次在论坛上,Yann LeCun 等将讨论场景分类,显著性检测,房间布局估计以及字幕生成的问题。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。