0
新年到来,也不要忘记和雷锋网一起温故而知新啊。
在刚刚落下尾声的 2016 年,许许多多的人工智能大神们站在台上分享他们的所见所感,雷锋网整理了十位人工智能领域的大牛们所做的最新演讲,一起与雷锋网来回顾这些充满智慧闪光的科研成果吧。
Yann LeCun 堪比学术界的网红,今年频频露面于公众面前发表演讲,还录制了不少教学视频,圈粉无数。如果 Yann LeCun 想坐 2016 最活跃学界大神的宝座,雷锋网觉得没有人敢和他抢。
LeCun 在卡内基梅隆大学机器人研究所进行了一场关于 AI 技术核心问题与发展前景的演讲。雷锋网了解,他在演讲中提到了三点干货:
1. 无监督学习代表了 AI 技术的未来。
2. 当前 AI 应用的热点集中在卷积神经网络。
3. 用模拟器提高无监督学习的效率是大势所趋。
但不久后,在 NIPS 大会的演讲上,LeCun 又将预测学习代替无监督学习一词,认为预测学习不仅能在无监督情况下学习,还能学习世界的预测模型。而就在最近,他又把预测学习的落脚点放在了 GANs,称它为「20 年来机器学习领域最酷的想法」。
雷锋网对他的演讲做了不少覆盖,比如演讲 PPT 实录;演讲视频整理;教授人人都能懂的深度学习基本原理;甚至还有 Quora 问答集锦,亲授如何(像他一样)从小白到大牛,自觉深度学习技术。
啥也不说了,关注 AI 科技评论快上车吧!
作为与 Yann LeCun、 Geoffrey Hinton 齐名的「深度学习三巨头」,Yoshua Bengio 同样是学界不可忽视的一名执牛耳者,他自 1993 年在蒙特利尔大学任教。谷歌于今年 11 月宣布建立蒙特利尔算法学习人工智能实验室(MILA),共计投资 340 万美元,资助蒙特利尔大学和麦吉尔大学旗下七名重量级教授及超过 150 名研究者的日常实验。而自然,Yoshua Bengio 也在其列。他领导下的深度学习实验室可谓是人工智能的研究前沿阵地,也是世界上最大的研究中心之一。http://www.leiphone.com/news/201611/u6HcoL3VhOxAbdjx.html
在今年 5 月的 Twitter Cortex 上,Bengio 应邀做了题为「自然语言词义下的深度学习」的演讲。在演讲中,Bengio 提及了从机器学习到人工智能的三个关键要素,主要包括:
1. 非常非常多的数据;
2. 极灵活的模型
3. 强大的先验知识,能打破维度魔咒。
此外,他还引申到了深度学习中的聚焦机制(Attention),首先它需要考虑一个输入(或中间的)序列或图像;但考虑到高层次指称,通过设置权重或每个输入位置概率,(如 MLP 所产生的),能够应用于每个位置。而这最主要的一个应用就在于机器翻译。在 2014 年,神经机器翻译获得了初步突破,并在端到端机器翻译取得了显著成果。雷锋网此前也做过报道,谷歌大脑团队执掌下的 Google Translate 目前已经完全应用了机器学习进行翻译学习。
Bengio 认为,聚焦机制能够让深度学习取得巨大进步,并让学习者模型更好地做选择。
既然说到了 Bengio,雷锋网怎么能不提他的得意门生、「GANs」之父 Ian Goodfellow 呢?他同样在 NIPS 2016 上发表演讲,分享了他对生成式对抗网络的研究成果。
生成对抗网络是一种生成模型(Generative Model),其背后最基本的思想就是从训练库里获取很多的训练样本(Training Examples),从而学习这些训练案例生成的概率分布。
而 GANs 所做的「对抗」,就是让生成器网络与判别器网络玩一个游戏,生成器网络不断通过输入的随机噪声转化为假数据;而判别器网络就需要判断数据的真伪。
「与传统神经网络训练不一样的且有趣的地方,就是我们训练生成器的方法不同。生成器一心想要「骗过」判别器。使用博弈理论分析技术,我们可以证明这里面存在一种均衡。」
不过训练 GANs 的一个难点,就在于会出现「模型崩溃」(Mode Collapse):生成的所有样本都在一个点上(样本相同),而主要的解决方式是开发能找到均衡状态的新算法,而非令误差最小化的成本函数。
Goodfellow 此前为 Google Brain 高级研究员,现在为 OpenAI 的科学家。他在学术界也同样非常活跃,不仅发布了 38 分钟视频,(手把手)教授如何完善生成对抗网络,还在最后与网友互动,详细解答了求知者的各种疑惑。
如果说谷歌是人工智能领域的弄潮儿,Jeff Dean 自然就是沙滩上最为璀璨的珍珠。Jeff Dean 在领导谷歌大脑(2011 年成立,雷锋网注)的这段时间内,研究小组已经创造了超过 1000 个深度学习项目,并将其应用在谷歌现有的产品当中:如 YouTube,谷歌翻译和谷歌相册等。研究人员通过深度学习将大量数据输入到神经网络当中,学习比人类识别速度更快的模式。
在今年 3 月 AlphaGo 与李世石人机大战时,Jeff Dean 就做了《大规模深度学习最新进展》的主题演讲,而在今年 9 月的 Scaled Maching Learning 会议也做了内容类似的《使用 TensorFlow 的大规模深度学习》。
Jeff Dean 认为,神经网络能从数据中学习真正复杂的函数。从一端输入内容转换成另一端的输出内容。他也提及机器学习领域的发展速度非常之快,因为一篇论文发布之后,全球对人工智能有研究的机构都会下载它,并对内容进行解析和论证,加上电子论文的通达性,比起计算机学其它领域的研究进展会快得多。
对于谷歌,Jeff Dean 表示深度学习在语音识别、Image 挑战赛、谷歌翻译、照片搜索、街景影像,甚至是搜索排名上都取得了巨大突破。关于他的更多访谈资料,可以参考《谷歌战神谈增强学习和无监督学习》。
今年 AI 界并不平静,而李飞飞加盟谷歌,着手成立新的机器学习实验室,则成了里头「万绿丛中一点红」的存在,而雷锋网一直对这位华人女性科学家保持高度关注。
李飞飞在今年参加了 ICPR 2016,并应邀发表了名为《计算机视觉智能的探索》的演讲。她在演讲中提到,自然经历了五亿多年的变革才构造了人类强大的视觉系统,而人工智能的视觉探索之旅也只进行了短短五十年。李飞飞介绍了她的实验室中正在开发的,基于大数据及深度学习的计算机图像视频研究体系。
作为全球计算机视觉领域的知名专家,李飞飞的主要贡献在于参与建立了两个被 AI 研究者广泛使用来教机器分类物体的数据库:Caltech 101 和 ImageNet,而后者,目前已经成为了全球最大的图像识别数据库。
当然,这个演讲的主要内容还是在介绍 ImageNet 的主要进展,而如果你对她最为出名的 TED 演讲还不够熟悉,欢迎一睹雷锋网此前撰写的李飞飞个人介绍。
百度人工智能实验室的吴恩达(AndrewNg)也算得上是非常活跃的人工智能学者,他同样在今年的 NIPS 2016 上进行了演讲,名为《如何用深度学习建构人工智能系统》(Nuts and Bolts of Building Applications using Deep Learning)。
吴恩达在演讲中指出深度学习非常火的原因在于,神经网络能够扩大无限大的规模,并能够依靠这一点引领深度学习。在百度的人工智能实验室中,他严格将团队分为了算法与架构两大体系,认为没有人是两者皆擅长的,因此这一点可以为其它深度学习创业公司的团队提供参考。
而在接下来的展望中,吴恩达认为下一个深度学习的大潮在于端对端的学习。需要足够多的数据量,才能实现更加纯粹的端到端学习,也就是直接通过深度学习将语音对标到最终想要的文本,并通过深度学习自身的体征提取来获得结果。关于吴恩达的 NIPS 2016 最新演讲,还请回顾一下雷锋网的相关文章。
此 Michael Jordan 非彼乔丹,他是加州大学伯克利分校(University of California, Berkeley)电子工程系、计算机科学系以及统计系的杰出教授。在他麾下学习过的不少学生都已经成为了鼎鼎有名的机器学习大牛,比如 Yoshua Bengio 和 Andrew Ng 都是他的得意门生。
他于今年五月在伯克利分校做了一个关于计算思维、推理思维及数据科学的演讲。在会上他提到,数据科学需要计算思维与推理思维的完全融合,并指出了大数据环境下验证模式、解释模式与计算过程中可能出现的问题。
「在处理数据科学问题上出现了许多概念与数学上的挑战,而面临这些挑战,我们需要在计算思维与推理思维上建立良好的联系。」
而三巨头的另一名大牛 Geoffrey Hinton 相对而言则比较低调。雷锋网从他的主页上了解到,他在过去一年并没有参加什么大型的公开会议,也鲜有关于他的报道。但是,他可称得上是深度学习的鼻祖,正是他将深度学习从低谷中拯救出来,并成为今天我们喜闻乐见的核心技术。在过去的 20 到 30 年里,无疑他是深度学习最为积极的先行者。目前, 他为 LeCun, Bengio 和 Aaron Courvile 合著的深度学习入门大作《Deep Learning》写了推荐语,该书于 2016 年年底出版发货。
如果你对深度学习一无所知,又觉得看书太过辛苦,雷锋网此前编译过另一份 Hinton 讲述的《Deep Learning》演讲PPT,或许是你入门的好选择。欢迎点此查看学习。
不知道是不是长江后浪推前浪,比起活跃的青壮年一代,LSTM 之父 Jürgen Schmidhuber 在今年也露面较少,在今年夏天的 WCCI 上,他发表了言简意赅的《Deep Learning:since 1991》的演讲,主要回顾了深度监督学习/无监督学习/强化学习的一系列进展,并讨论实际上可能伴随的具体应用。「没有任何原因说明,机器不能拥有好奇心和创造力」
「所有的智能——不论是人类的还是人工的——都基于一个主题,那就是解决问题。长期以来,我们一直在致力于构建一个解决通用问题的机制,不论这些问题是困难还是简单。这个问题解决机制能够通过先前学习的技能解决现有的问题,通常,机器会将新的技能增加到计算指令系统中,并能够解决越来越通用的问题。当然,如果到达我们所预想的成功,一切将会发生翻天覆地的改变,因为每个计算问题或每个专业性研究都将受到影响。」
关于他更为详细的人工智能访谈,可以参看雷锋网此前的报道。
美国通用人工智能会议主席 Ben Geortzel 在年初的未来论坛上做了主题演讲,期间他提出了一句流传甚广的话:人工智能将会变得越来越通用。那么,我们又该如何理解这句话?一起和雷锋网来看看吧。
在 Ben Goertzel 的理解中,AI 在很多层面都与人类是不一样的,特别是在基础架构层面。而他发现,现在很多的人工智能只能解决一些非常狭窄的功能,比如无人驾驶只是针对于汽车领域,而换成无人摩托,就需要重新进行编程。他认为,现在人们需要向利用 AGI 所导向的工具,实现通用工人智能。
「AI 项目的范围是比较窄的,但是将来会变得越来越通用。它们不仅仅越来越智能,同时它们的范围和目的也更加通用,我认为这是一个关键趋势。
通过 AGI 通用人工智能可以实现很多愿景,一个愿景是思维云,我们可以把世界各地的思维和大脑连在云上,我们的应用,不管手机应用还是机器人,还是科学数据分析的机构,我们可以从互联网下载他们的大脑和思维,他们可以帮助你进行思考,不管他们在哪个领域都可以做,在云上有覆盖各个领域的应用。」
Ben Geortzel 目前正专注于开源 AI 项目 OpenCog 的研发,并尝试推动大学与独立研究院的结合,这也是雷锋网一直致力在做的。
十个演讲的盘点也许只是匆匆一瞥,还有不少大会上的优秀演讲因为篇幅限制,雷锋网只能忍痛割爱。但不论如何,雷锋网将与你在新的一年内继续走在探索人工智能的道路上,关注智能与未来的我们也会期待见证新一年的精彩。
【兼职召集令!】
如果你对未来充满憧憬,喜欢探索改变世界的科技进展,look no further!
我们需要这样的你:
精通英语,对技术与产品感兴趣,关注人工智能学术动态的萝莉&萌妹子&技术宅;
文字不求妙笔生花,但希望通俗易懂;
在这里,你会收获:
一群来自天南地北、志同道合的小伙伴;
前沿学术科技动态,每天为自己充充电;
更高的生活品质,翻翻文章就能挣到零花钱;
有意向的小伙伴们把个人介绍/简历发至 guoyixin@leiphone.com,如有作品,欢迎一并附上。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。