0
本文作者: 奕欣 | 2017-01-09 10:40 |
雷锋网 AI 科技评论刚刚出炉了 2016 十大 AI 演讲盘点,不少热心读者感到疑惑:为什么这里面列举的都是国外大牛,怎么不见咱们国内的知名学者们的演讲整理?这不,雷锋网已经整理出了国内过去一年来的精彩演讲,一同随 AI 科技评论看看,哪位大神的高见让你受益匪浅?本文排名不分先后,欢迎各位读者在评论区畅所欲言,说说你们心中的最佳 AI 演讲吧。
北京大学信息科学技术学院教授。中国工程院院士、ACM/IEEE Fellow、CCF - GAIR · 全球人工智能与机器人峰会大会主席高文院士这一年参加的演讲不少,但主要都是围绕人工智能的历史与未来展开的。如果你对人工智能非常感兴趣,想对 60 年的浪潮有一个详细的了解,那么不妨看看他在 CNCC 2016 上所做的《人工智能--螺旋上升的 60 年》演讲,39 页 PPT 向读者们展示了一个呈螺旋式上升的人工智能历程。
从 2006 年的第三次机器学习浪潮来看,高文院士认为有两个因素促进了深度学习的成功:
一个是硬件的进步:硬件越来越便宜,计算能力越来越强。
第二个是模型和参数调整技巧的进步。
而在高工机器人年会闭幕式上,高文院士发表主题报告《人工智能的前景与挑战》,主要针对大环境下的人工智能进行了一些研究和探讨,雷锋网对他的详细演讲进行了报道,可以点击下方链接查看。
还想了解下高文院士都说了些什么其它内容?欢迎阅读雷锋网此前报道:
CNCC 2016 | 中国工程院高文院士 39 张 PPT 带你看懂人工智能 60 年浪潮
中国工程院院士高文:下一波浪潮和AI的未来 | 2016 高工机器人年会
值得一提的是,高文院士也倾情为我们 AI 科技评论做了个小广告,也欢迎大家以此途径查看他的演讲内容。在此也向高文院士对AI科技评论的关注致以感谢!
周志华教授主要从事人工智能、机器学习、数据挖掘等领域的研究,他除了在 CNCC 2016 上发表过演讲外,在今年的 KDD China 技术峰会上也做过分享。周志华教授以「文献筛选」作为例子,让观众们在活泼的例子教学中就明白了关于机器学习的「是什么」「为什么」「怎么做」三个方面的问题。在演讲的最后,周志华教授提出了几点总结,雷锋网摘录如下:
深度学习可能有「冬天」,它只是机器学习的一种技术,总会出现更「潮」的新技术;
机器学习不会有「冬天」,只要有分析数据的需求,就会用到机器学习;
关于未来的思考:
1、技术上:一定是能有效利用 GPU 等计算设备的方法(未必是深度学习);
2、任务上:开放环境的机器学习任务特别重要(鲁棒性是关键);
3、形态上:希望是从现在的「算法 + 数据」过渡到「学件」的形态。
如果要对未来这三点加上一个预测期限的话,分别是 5 年、10 年、15 年。
如果对周志华教授的演讲感兴趣的话,可以点击以下链接阅读。
周志华 KDD China 技术峰会现场演讲:深度学习并不是在「模拟人脑」
CNCC 2016 | 周志华 57 张 PPT 揭开机器学习本质
说完了人工智能展望、深度学习的分析后,接下来雷锋网要介绍的是迁移学习。诚然,深度学习在有即时反馈的领域和应用方向有着一定的优势,但在其他领域则不行。「目前解决这种反馈的时延问题需要强化学习来做。而在明天,则有更多的地方需要迁移学习。」
香港科技大学教授、第四范式首席科学家杨强在雷锋网承办的 CCF- GAIR 全球人工智能与机器人峰会大会上,为大家讲述了人工智能要取得成功应当具备的五个必要条件和迁移学习的本质。
杨教授认为,迁移学习是深度学习与强化学习的结合体,能够将适用于大数据的模型迁移到小数据上,实现个性化迁移,这样一来能够避免数据寡头的出现。他通过谷歌 DeepMind 的应用实例讲解强化迁移学习和三层结构算法模型,指出了人工智能成功的五个必要条件——清晰的商业模式(明确的目标)、高质量的大数据、清晰的问题定义和领域边界、懂人工智能的跨界人才及计算能力。
此外,杨强教授还在今年的 KDD China 上做了主题为《从深度学习到迁移学习》的演讲,详情可以点击链接查看。
香港科技大学杨强 KDD China 技术峰会演讲:迁移学习的本质与实际应用
杨强教授 PPT 解密:如何在人工智能浪潮中少走弯路|CCF-GAIR
中国工程院李德毅院士今年已经 73 岁高龄,但作为自动化和人工智能专家,李院士一直紧密关注着智能车产业的生态环境、工程化实践与未来发展。在中国第三届机器人峰会上,李院士分享了在无人驾驶领域的研究和观点。他认为,驾驶活动更多的是技巧,记忆和经验,而不是知识、推理和计算。驾驶脑的差异,反映是个人的智力和运动协调能力的差异,世界上没有两个完全相同的驾驶脑。
「这才叫机器人。我们想将来车上跑的驾驶脑也是一样的。真正开车的不是汽车本身,而是驾驶员,人的认知,要把脑和机器融合在一起才行。所以我们主张在我们机器人里面,有一个调试总线扩展为自学总线,可以学习人是怎么开车的。然后机器人开车时候扮演的角色,主要是通过学习的东西消化吸收,深入学习,变成了自己的行为。
雷锋网已经为大家整理好了他的完整演讲附 PPT,赶紧点此阅读吧。
杨强教授是华为诺亚方舟实验室的第一任主任,自然这个实验室主要针对的是机器学习、人工智能及数据挖掘方面的研究了。现任实验室主任李航在今年雷锋网承办的 CCF-GAIR 大会上向观众分享了人工智能在手机领域的应用研究。李航在演讲中表示,华为诺亚方舟实验室的其中一个愿景,就是打造一个全智能化的智能移动手机终端,用户将通过自然语言的方式从终端获取一切想要的信息和协助。
而在年底的 KDD China 上,李航做了题为《自然语言处理中的深度学习:过去、现在和未来》的演讲,结合具体的 NLP 技术,介绍了自动问答系统、图片检索、机器翻译、自然语言对话的各种应用结合。
李航认为,未来自然语言处理深度学习的发展趋势,应该是一个神经处理和符号处理的结合的混合模式。还等什么?赶紧看看雷锋网关于李航的相关报道吧:
AIR 019 | 华为诺亚方舟实验室主任李航:我们在人工智能领域的愿景与实践
今年在韩国举办的「二十一世纪的计算」学术研讨会以人机协作(Human and Machine Working as a Team)为主题,现任微软全球资深副总裁,微软亚太研发集团主席,兼微软亚洲研究院院长洪小文博士做了题目为《人工智能与人类智能的共同进化》(Co-Evolution of Artificial Intelligence and Human Intelligence)的演讲。
在演讲中,洪小文提及人工智能有三个不同的技术层面,包括计算机视觉识别、自然语言理解及数据分析&可视化。
「人类智能的优越性在于从小样本中、甚至 0 样本中进行学习和推理。而以深度学习为代表的人工智能技术则更适合从大数据中学习。」那么人工智能中的「智能」,根据洪博士的理解,主要分为四大层面:功能、智能、智能及智慧。而截至目前最聪明的机器也只是达到了「智能」层面,因此他认为只有把人类智能与人工智能进行组合,才能实现真正的「共同进化」。详细 PPT 可参看:
二十一世纪的计算 | 微软亚洲研究院洪小文54页PPT讲述人工智能和人类智能的 “共进化”
原新加坡国立大学教授,现任360 首席科学家、人工智能研究院院长颜水成在今年也发表演讲,介绍了 360 是如何做人工智能的。按照颜教授的说法,360 的人工智能最基本的布局比较全面,覆盖了人工智能的多个方向,具体包括:
一是视觉感知,对图象和视频的分析;
二是语音感知;
三是语义感知,希望智能硬件能够和用户进行对话和交流;
四是大数据分析,我们也希望深度学习能够发挥在大数据方面的积极作用。
而颜水成在今年雷锋网承办的 CCF-GAIR 大会上同样向我们分享了 360 的一些研发进展。「从研发角度来说,我们主要做了两件事:一方面是当我们有了大数据之后怎样更加快速的把这个模型训练出来?另外是从智能硬件的层面来说,除了传统的人工智能,在云上的使用还有一个很重要的场景是端上的人工智能。」颜教授表示在未来会从业务与研究层面用人工智能提供服务。
AIR 022 | 腾讯、小米、360、今日头条眼中的机器学习
那么在后深度学习时代,我们又需要以怎样的态度看待人工智能呢?
清华大学张钹院士在今年的 CNCC 大会上做了主题分享,他认为后深度学习时代的人工智能,就是想把人工智能从这个狭义的,只能解决一定范围的方法,推广更宽广的范围去,也就是从弱人工智能、强人工智能、到通用人工智能的演进。
而张院士也认为在这一过程中,可能会遇到三个方面的挑战。
1. 概念统计方法带来的困难;「深度学习区分的是重复的模型,但大脑区分的是语义的特征,这两种区分有本质的区别,但是有关联。」
2. 生数据带来的困难。张院士认为,大数据实际上掺杂了很多噪声,生数据的鲁棒性自然会比处理过的数据表现更差。
3. 推广与迁移的困难。如何将弱人工智能推广到通用智能,也就是举一反三的层面,这点目前人工智能的表现还比较局限。
张院士提出了两个解决方案,一个是将数据驱动与知识驱动结合起来;另一个是回归神经网络的本源,如何学习人类神经网络的思维模式,再将这套方法移植到机器身上来。
而在演讲的最后,张院士指出,人工智能的发展要更加依靠学科交叉,特别是数学、认知科学、心理学、神经科学及语言学等。
CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能
在数博会人工智能与大数据主题论坛上,卡耐基梅隆大学计算机科学系教授邢波做了一个系统性的演讲。在会上,邢教授指出人工智能存在三个方面的机遇。
首先是理论基础与实际需求仍有差距。包括了数学模型本身在表达性、迁移性、透明性与可调性上的局限;以及算法工具在速度、稳定性及收敛保障上的不足。
其次是如何跨越已有操作系统与 AI 任务需求间的鸿沟。在不同平台上实现 AI 非常困难。「由于大数据的产生,我们对于软件系统的需要和部署能力有更高的要求,譬如希望在不同平台上,能在不同的移动设备,云的设备上不同平台上跑同样的软件,目前这些问题都没有解决。」
最后一点在于未来通用硬件的构造会是什么样。从低功耗的 CPU/GPU、到更多核的 CPU/GPU、更大的 RAM 及闪存存储、或是量子计算甚至是 DNS 计算等不同于冯·诺依曼计算机的计算模型。
中国科学院副院长谭铁牛在 CNCC 上做了《大数据时代的模式识别》为主题的分享。基于人工智能的相关演讲已经多如牛毛,谭院长便为大家做了更为具体的介绍。「(模式识别)用我自己的语言来说就是:世上万物,不管是物质的还是精神的,看得见还是看不见的都是一种模式。」他认为,深度学习之所以火,便是获取提升模式识别的一种能力。而基于目前现状,谭院长概括出了以下几个现状:
面向特定任务的模式识别已取得突破性进展,有的性能可与人媲美。
统计与基于神经网络的模式识别目前占主导地位,深度学习开创了新局面。
通用模式识别依然任重道远。
鲁棒性、自适应性和可泛化性是一个进一步发展的三大瓶颈。
而针对现在的机遇,谭院长总结了三点:首先是数据利用,成为信息服务与知识服务的渠道。第二点是推动理论与方法创新;第三点的想法与张钹院士的做法一样,就是加速学科领域的交叉与渗透。
此外,谭院长还提出了几点值得关注的研究方向,包括:
面向大规模多源异构数据的鲁棒特征表达;
结构与统计相结合的模式识别新理论;
数据与知识相结合的模式识别;
具有鲁棒性和自适应性的生物启发模式识别;
基于跨领域跨模态知识迁移的模式识别;
以互联网为中心的模式识别。
想知道谭院长还提出了哪些真知灼见?欢迎点下面的链接查看。
叶杰平教授是机器学习领域的国际领军人物,现任滴滴研究院副院长,美国密歇根大学的终身教授。他在今年的腾讯大数据峰会暨 KDD China 技术峰会解密了机器学习在滴滴中的大规模应用。雷锋网此前覆盖过 MIT 所做的最新车辆调度系统,其中同样也运用了机器学习的算法。比起尚未正式运用到实际领域的 MIT 研究成果,滴滴的算法已应用于预测目的地、估价、拼车、匹配司机、热力图等一系列实际场景中。
而滴滴人工智能的核心就在于订单的分配上。叶教授指出,滴滴实现订单最优匹配需要遵循这两大核心:做出最优路径规划,预估时间。
此外,在评估乘客体验及打分系统的权重上,滴滴人工智能也运用了不同的算法,以带给用户更好的乘车体验。关于叶教授的更多演讲细节,可以看看雷锋网所做的详细整理:
雷锋网为大家介绍了 2016 年十位国内学术大牛的精彩演讲,但实际上更多精彩的演讲因篇幅所限无法一一覆盖,也希望读者们关注 AI 科技评论,与我们分享你心中的经典演讲吧!
*封面图源于网络
雷峰网原创文章,未经授权禁止转载。详情见转载须知。