6
本文作者: Leo | 2015-06-18 12:48 |
编者按:deep learning曾被《纽约时报》头版报道:“深度学习让机器执行人类的活动,如看、听和思考,可以模式识别提供了可能性,促进了人工智能技术的进步。”但是也不免有人笑谈,Hinton已建立了一个很好的梯子,但这个梯子并不一定能带你到月球。而这里,Leo或许可以带给你不一样的想法。
近期Nature杂志刊登了Lecun、Bengio、Hinton的深度学习(deep learning)文章,是对最近深度学习火爆进展的总结,也是对他们三十年专注突破精神的最佳肯定。
深度学习火到什么程度呢?据我所知,在工业界,Google、Facebook、微软、百度、腾讯以及其它创业公司,都想用深度学习的算法,意图达到顶级的智能识别实用精度(语音识别、人像识别等)。
深度学习的广泛应用,让它载入史册,可以比肩最近人工智能领域的图灵奖工作--哈佛教授 Leslie Valiant的可学习性理论(2010年图灵奖,90年代初在此思想下诞生了著名的 Boosting 算法)、 UCLA教授 Judea Pearl 的基于概率推断的人工智能(2011年图灵奖,90年代末开始基于此思想的图模型风靡学术界)。
Harvard教授 Leslie Valiant
UCLA教授 Judea Pearl
我时常和业内人士交流 ,包括硅谷的工程师、研究员(图像分类、广告推荐等),风险投资者,美国学术界的教授,还有在创业公司的和在学校实验室做研究的清华、交大学生。大家对深度学习的历史背景缺乏全面细腻的了解,甚至有些盲从。
在我创业前,深度学习还没“火”,我在Yann Lecun的实验室呆了一年,研究图模型和深度学习的关系——当时对两个体系都深刻理解的人几乎没有。而在本该功利的创业环境里,到目前为止,我们团队还未使用深度学习,显得有些“另类”甚至“落伍”,所以带着这样熟悉又陌生的心情,今天想分享一下自己的体会,算是对深度学习以及Hinton和Lecun的三十年创新之路的致敬。
首先,来介绍下Deep Learning的主要人物背景:
Geoff Hinton是深度学习学派的祖师爷,老爷子腰椎不好,经常得站着写代码到夜里一点,不能坐飞机,得坐火车从东边到西边去开会。
Geoff Hinton,deep learning 学派创始人之一
Yann Lecun 是 Geoff Hinton 三十年前的弟子。最近深度学习应用于智能理解特别广泛的模型是卷积神经网(ConvNet),就是 Yann Lecun 发明的 / 命名的。在学术上,这和传统的深度学习其他的模型有显著性差异 —— 我甚至认为这是思想性的巨大差异(世界可学性的假设)。
图右为Yann Lecun,卷积神经网的发明者,Geoff Hinton的弟子
Andrew Ng 是 Michale Jordan( Berkeley 教授,图模型的泰斗)的明星弟子,Andrew 独立后,在Stanford,、Google 和 Baidu 做的反而是deep learning (有点武当弟子学了少林,或者少林弟子学了武当的意味)。后来做了网络公开课程Coursera后名声大噪,意义大大超越了其学术界的地位和范畴。
吴恩达(Andrew Ng),百度首席科学家,在线教育平台coursera的创始人
历史究竟发生了什么? 深度学习为什么突然火了?
标志性事件发生在2012年,两个“小毛孩”打败了业界神话。
2012年底,Geoff Hinton 的博士生 Alex Krizhevsky、Ilya Sutskever(他们研究深度学习时间并不长)在图片分类的竞赛 ImageNet上,在识别结果拿了第一名。其实类似的比赛每年有很多,而这个事件的意义在于,Google 团队也在这个数据集上做了测试(非公开的,Google没有显式参加学术界的“竞赛”),用的也是深度学习,但识别精度比Geoff Hinton的团队差了很多,这下工业界振奋了:
同样用深度学习的算法,大神级别的Google团队,居然会在识别精度上差这么多!
先来谈谈“Google团队”是干什么的。它是特殊的,因为它不同于其他Google团队,并且这个项目受到Google公司足够的战略级重视,有着世界级的明星领导者,其中包括 Andrew Ng、Google 神人 Jeff Dean(他们在深度学习领域已投入很多,并到处宣讲他们的战果)以及业界无法企及的硬件和数据资源的支持。
我想,如果没有这样巨大的反差,深度学习还不会得到这么快的传播和认可。因为当时的学术界还不知道Google内部的测试成绩,只知道Geoff Hinton得了第一,击败了另一个学术界顶级的Oxford团队。甚至今天,很多人还不知道这段历史。
两个“小毛孩”让业界神话陷入低沉:Google投入产出并不具有说服力,甚至,是可耻的。但是,工业界似乎不需要、也不该关心面子。
紧接着,巨头的垄断游戏开始了。
在机器学习方面顶级年度会议(NIPS)上,Google竞价超过了包括微软在内的其他公司,收购了Alex Krizhevsky、Ilya Sutskever 和 Geoff Hinton这三个 刚刚注册几个月的公司。好像是花5000万美元买了三个人的部分时间。现在,Google 团队里面,曾经被打败的人可以正式拉着 Geoff Hinton 聊天了,工业界似乎不需要、也不该关心面子。而Facebook作为对谷歌的回应,挖了Yann Lecun,让他在纽约领导成立了 Facebook AI lab。Andrew Ng则离开Google去了百度。
从“硬”结果来说,其实此时的百度做得不会比过去的 Google 差,“软”名声还是因此提高很多:相比于Google X, Facebook AI lab, Google Brain等,能提出用“深度学习研究院”这个用算法来命名部门的人是需要“魄力”的。
有趣的是,后来Yann Lecun组的学生也出来了一半,陆续开了几家深度学习的创业公司,其中一家早前被 Twitter 收购。另外一些创业公司,则分别投入了Facebook 和 Google的麾下 。粗略估计,深度学习给Geoff Hinton和 Yann Lecun 的组带来了近十个千万富翁。
更有意思的是(很有启发性并值得思考),Alex Krizhevsky 和 Geoff Hinton的竞赛用的正是 Yann Lecun 发明的卷积神经网,但结果刚出来时(实现细节还没有公布),Yann Lecun和他的NYU实验室成员甚至没法重复Geoff Hinton的结果。这显然不科学!
自己发明的算法,使用结果不如另外一个组。这下炸了锅,Yann Lecun开了组会,反思的主题是“为什么过去两年我们没有得到这样的成绩” 。
高手过招,Idea is cheap; The devil is in the details (有想法很廉价;魔鬼在细节处)。想法其实很重要,但只能区分高手和普通人。高手都有想法,但谁才能创造历史呢?Yann Lecun 这样的实验室需要反思什么呢?先看看他们有些什么吧。
我经历过巅峰时期的微软亚洲研究院(十五年前,这里的实习生只能是名校的各系第一名)、UCLA (排名10名左右)、MIT AI lab (计算机专业第一名),实验室的茶歇时间 Tea Time, 过道挤满了顶级会议的最佳论文获得者---NIPS, CVPR等 。基于以上经验,我先介绍一下 Yann Lecun 实验室的过人之处。
Yann Lecun上课教授和使用的是他自己写的语言Lush,用来替代 matlab(很方便描述矩阵运算、图像处理等)、python在科学研究的功能。他的团队三十年如一日的专注于神经网络的研究,从不随波逐流,课题覆盖卷积神经网的方方面面。有的博士生聪明数学好,非常敏感于卷积神经网模型的深刻理解;有的博士生专注于结构参数的行为分析(多少层啊之类);有的博士生研究在不同数据分布(应用场景下)的表现,比如字母识别、图像分类、物体检测、场景分类等。
这样的学术坚持,是在怎样的艰难背景下呢?
人工智能领域,神经网络思想在80年代末开始衰落,之后分别经历了几个划时代的图灵奖级工作的兴起,统计学习理论(带来支持向量机 SVM 算法),可学习理论(带来 Boosting 算法),概率推断(图模型,graphical model)几乎垄断了过去的三十年。在之前提到2012年的 Geoff Hinton 团队的深度学习打败Google的标志性事件前,图模型的思想横扫计算机视觉领域(超越了boosting,SVM等)。这使得深度学习生存艰难,没有多少同行在研究中使用深度学习,更多年轻学生愿意去“时髦”的机器学习研究组。
2006年,Yann Lecun的文章还在阐述深度学习如何能跟当年流行的图模型(比如条件随机场模型)等价,证明自己的工作在不同数据集上也能和图模型做到相当的识别精度。尽管在2012年末,Alex Krizhevsky、Ilya Sutskever 两个“小毛孩”在竞赛中用深度学习打败了Google团队,让工业界炸了锅。
但是,工业界对深度学习的追捧传递回学术界是发生在一年以后 。原因是, 除了顶级教授因为私人关系能知道工业界最前沿进展,大部分学术界教授并没有公开渠道及时获取信息,而这些教授却是学术工作评审的主力。因此,直到2013年,Yann Lecun 的文章在计算机视觉的顶级会议上(CVPR)依然很难发表(这时的深度学习在多项数据集上相比其他“传统”方法并不排他性的出色)。
Yann Lecun 像战士一样对抗着学术界的“庸俗”和“传统”,在不同场合讨伐从业人员的态度、标准和品味,公开发文抵制计算机视觉顶级会议CVPR,并于2013年创办了新的学术文章发布体系(ICLR)。
可笑的是,仅仅不到两年的时间,现在,视觉的文章没用上深度学习都很难被发表。
主流(不见得创造历史)的和最需要独立思想和自由批判精神的年轻学者,却似乎没有节操地要和深度学习沾上边(当上“千”个博士生都在研究深度学习的时候,应该不需要什么独立见解和勇气)。
今天,反而是三十年后卷土重来的Yann Lecun(还有Bengio,Geoff Hinton)愿意站在先锋,批判性地谈论深度学习的泡沫繁荣,呼吁学术界、资金拥有者冷静。这种反差很是让人感慨。
Yoshua Bengio
到底当时,Yann Lecun 和 Geoff Hinton的团队细微差别在哪呢?高手也可能错过什么呢?或许我们很难有接近事实的答案,原因可能很复杂。对于历史的真实解读才有助于我们抛开浮华,启发与他们一样追求创新的我们,无论是在学术研究还是创业。
下次我会撰文就这个问题专门讨论一下,期待有兴趣的朋友和我共同交流,邮箱:leo@yitu-inc.com。
附:作者与深度学习的关系
加州大学洛杉矶分校(UCLA)统计学博士,师从 Alan Yuille 教授,思想上属于 Bayesian 理念,继承大师 Stuart Geman(美国数学家,科学院院士, 他和弟弟在84年的马尔科夫随机场奠基性工作,足足影响了之后三十年的科研历史)David Mumford(美国数学家,74年菲尔兹奖得主)和概率学大师Ulf Grenander开创的 Pattern Theory 学派(这些数学家的工作大大早于计算机领域的图模型)。创立依图前,作者在 Yann Lecun 的实验室研究图模型和深度学习的关系,可以从不同视角看深度学习。
依图科技CEO Leo , 中文名:朱珑
雷峰网原创文章,未经授权禁止转载。详情见转载须知。