0
雷锋网 AI 科技评论按:两年一次的计算机视觉顶会 ECCV 正在德国慕尼黑进行中。继正会第一天的开场演讲中介绍了多项基本情况之后,各项论文奖项也在 12 日的参会人员大聚餐 Gala Dinner 上、在欢乐轻松的氛围中、在美食的香气里逐项揭晓。
Implicit 3D Orientation Learning for 6D Object Detection from RGB Images
根据 RGB 图像检测 6 维位姿的隐式三维朝向学习
论文摘要:作者们提出了一个 RGB 彩色图像处理系统,它可以进行实时的物体检测与 6 维位姿估计。其中的全新的三维朝向估计器是基于降噪自动编码的一个变种,然后借助「任务随机化」(domain randomization)技巧用 3D 模型的模拟视角进行训练。这个所谓的「增强自动编码器」相比现有的方法有数个优点:它不需要真实的、标注过位姿的训练数据,它可以泛化到多种不同的测试传单器上,并且天然地就可以处理物体和视角的对称性。这个模型学到的并不是从输入图像到物体位姿的显式映射,实际上它会根据图像样本在隐含空间内建立一个隐式的物体位姿表征。基于 T-LESS 和 LineMOD 数据集的实验表明所提的方法不仅比类似的基于模型的方法有更好的表现,而且表现也接近目前顶级的、需要真实的位姿标注图像的方法。
Group Normalization
组归一化
论文作者:Facebook 人工智能研究院吴育昕、何恺明。(又双叒叕是何恺明,往期最佳论文奖已经有 ICCV 2017 最佳论文以及两次 CVPR 最佳论文,可以说是最亮眼的华人研究人员之一了)
论文内容:雷锋网 AI 科技评论往期文章介绍过这篇论文的重点内容,参见 这里
GANimation: Anatomically-aware Facial Animation from a Single Image
GANimation:基于解剖学知识从单张图像生成人脸表情动画
论文摘要:生成式对抗性网络(GANs)的近期进步已经在面部表情生成任务中展现出了令人惊喜的结果。这项任务上最成功的架构是 StarGAN,它把 GANs 的图像生成过程限定在了一个具体的范围中,也就是一组不同的人做出同一个表情的照片。这种方法虽然很有效,但是它只能生成若干种离散的表情,具体是哪一种由训练数据的内容决定。为了消除这种限制,作者们在这篇论文中提出了一种新的 GAN 条件限定方式,它基于的是动作单元(Action Units)的标注,而动作单元标注就可以在一个连续的流形中描述足以定义人类表情的解剖学面部动作。通过这种方法,作者们得以控制每一个动作单元的激活程度,并且组合多个多个动作单元。除此之外,作者们还提出了一个完全无监督的策略用于训练模型,它只需要标注了激活的动作单元的图像,然后通过注意力机制的应用就可以让网络对于背景和光照条件的改变保持鲁棒。大量实验评估表明他们的方法比其他的条件生成方法有明显更好的表现,不仅表现在有能力根据解剖学上可用的肌肉动作生成非常多种多样的表情,而且也能更好地处理来自不同分布的图像。
Hamming embedding and weak geometric consistency for large scale image search
用于大规模图像搜索的无线嵌入与弱几何一致性
Semi-supervised On-Line Boosting for Robust Tracking
用于鲁棒追踪的半监督在线增强方法.
ECCV 还在继续进行当中,雷锋网 AI 科技评论也有多个角度的论文解读、会议动态文章。更多信息请继续关注。感谢中国科学院自动化研究所杨阳提供的现场资讯。
雷峰网版权文章,未经授权禁止转载。详情见转载须知。