0
人工智能无疑是当前最为热门的科技概念。作为科技界的领军企业,微软在人工智能领域耕耘已久。早在25年前微软研究院建立时,人工智能就已经成为整个微软的战略目标。微软为此倾注了许多精力和资源,并取得了亮眼的成绩,但它还有着更加宏伟的愿景:将人工智能带给每个人,从开发者到数据科学家,从技术爱好者到学生。
本次公开课,雷锋网邀请到了微软亚洲研究院掌门人洪小文博士,为大家分享《微软人工智能公开课》第一章节——《微软人工智能概览》中的精彩内容,介绍微软在人工智能领域的最新研究成果以及微软的AI服务如何赋能开发者。
整套《微软人工智能公开课》已在微软虚拟学院全面上线,感兴趣的朋友可以点击链接(https://aka.ms/MicrosoftAIMOOC)跳转学习。
据雷锋网了解,《微软人工智能公开课》分为三大块,呈金字塔结构,最底层针对所有的开发者,涵盖认知服务Cognitive Service以及Bot Framework。中间层针对数据科学家,包括Azure Machine Learning、HDInsight、Stream Analyst等。最顶层则瞄准需要开发自己算法的研究者,主要工具有 Microsoft Cognitive Toolkit、Azure Data Science VM等,同时也支持其他框架,比如 TensorFlow、Caffee等。
洪小文博士,现任微软全球资深副总裁,微软亚太研发集团主席,兼微软亚洲研究院院长,全面负责推动微软在亚太地区的科研及产品开发战略,加强微软与中国和亚太地区学术界的合作。
洪小文博士是电气电子工程师学会院士(IEEE Fellow),微软杰出首席科学家和国际公认的语音识别专家。洪博士在国际著名学术刊物及大会上发表过百余篇学术论文。
很多人都在问,我们研究人工智能的目的是什么。微软的答案是:让我们的应用和服务能够拥有像人类一样认识世界的能力,在视觉、语音、语言、知识等维度得到拓展,带来更好的用户体验。
还有很多人问,人工智能该如何分类,究竟哪几部分算人工智能。人工智能技术纷繁复杂,但微软认为可以归结为三大类:
大数据&机器学习
认知计算能力
对话即服务的体验
以智能手机为例,我们与智能手机的交互是通过不断点击屏幕上的菜单来实现的;用户需要耗费很多时间学习菜单中每个选项代表的意义。认知服务可以让我们与机器的交互变得更加简单直接,机器也能更好地了解用户的意图,不必浪费太多的沟通时间。
微软在AI领域耕耘已久。1991年,微软AI基础研究院成立,致力于打造一个能够听懂、看懂和理解人类以及世间万物的电脑。2007年,微软语音部门从研究部门正式转为产品部门,开启了AI的产品化道路。到2014年,在天津的一个活动中,微软系统已经能够将英文演讲实时翻译为中文了。紧接着,2015年微软亚洲研究院的计算机视觉系统首次在ImageNet上打败了人类。这套计算机视觉系统对超过2000种物体进行辨认,失误率仅为3.5%,而人类的失误率为5.5%。当时这套神经网络共有152层,如今已经发展到了上千层。
但对于微软来说,人类与人工智能的关系不是谁打败谁。事实上,AI将成为人类最好的工具,能够拓展人类的智能,让人类完成更多的事情。一般我们理解的AI是Artificial Intelligence(人工智能),但也可以将其阐释为Augmented Intelligence(增强智能)。未来人类与机器密切合作,就能实现我们理想中的Superman。微软的愿景就是,通过API等方式让AI这项看似高大上的技术平民化。有了微软的认知服务API,开发者无需自己做人脸识别、年纪识别和物种识别,只要使用相应的API,就能轻松调用这些功能,在其熟悉的领域开发应用。
微软的认知服务API主要可以归结为5大类:
视觉:从面部感官到感觉,让对话机器人了解图像、视频和情绪。
语音:把语音转换为文本,或把文本转化为语音,了解用户的意图,翻译语言,过滤噪声以及识别说话者。
语言:教对话机器人理解复杂的自然语言指令,解析复杂的文本以及理解用户情绪。
知识:从网络、学术界,或者用户自己的数据积累中融合丰富的知识。
搜索:通过必应API的强大功能,访问数十亿网页、图片、视频和新闻。
微软此前和一个非营利组织达成合作,共同寻找失踪儿童,其中就用到了视觉服务中的人脸识别。利用算法和深度学习,系统可以了解一个人的外貌。虽然人类在成长过程中外貌会不断变化,但系统可以从数学的角度找到比例等不变的特征,从而将其辨认出来。
微软的人脸识别API,除了可以检测图片中的人脸,识别其属性;还能实现人脸验证、相似人脸搜索、人脸分组、人脸辨识等功能。此外,情绪识别也是人脸识别的重要应用之一。微软的情绪识别API并非简单反馈对象的情绪好坏,而是返回一个分值,供开发者进行判断。
微软的语音API目前已经具备了听和说的能力,支持多国语言以及多种方言。此外,声纹识别也是语音识别中非常重要的部分。通过声纹识别,系统可以辨认出说话人是谁,这对提升语音识别的准确率非常关键。尤其是在嘈杂的环境中,如果系统可以辨认出用户,那么就可以对背景声和其他人的语音进行屏蔽,实现更好的语音识别效果。
语言和语音的关系非常紧密,语音只解决了“听到”的问题,能够辨认出句子中的每一个字;但要“听懂”,了解这些句子背后的涵义,就需要用到语言能力。语言能力建立在语音的基础之上。以往很多所谓的自然交互都是通过关键字判断来实现的。比如,用户输入“帮我看看是否有违章”,系统自动检测到关键字“违章”,就能得知用户想要查询违章记录。而借助深度学习的语义理解,即使用户输入的信息中不包含关键字“违章”——比如输入“帮我看看是否有违法停车”“我昨天闯红灯了,怎么办”,系统也能理解用户的真实意图。
“知识”能力的应用场景很多,其中最具代表性的是学校,比如寻找论文等。此外,很多企业也运用到了“知识”的能力,比如利用用户产生的数据,通过深度学习,向用户提供个性化的产品和服务。
将多个微软的人工智能API整合到一起,可以开发出非常有趣的应用。比如一个叫做songbot的应用,它可以识别图片中的内容,自动获取关键字进行歌词创作,并将作品唱给你听。
以上图为例,系统扫描图片后自动获取到“小鸟”“飞翔”“自由”“梦想”和“天空”等关键词,这部分用到了视觉的能力。songbot通过学习多达20万首歌,基于自然语言能力,理解了歌词的结构和组织。因此获得关键词后,可以利用机器学习重新创作歌词,最后利用语音合成技术把它唱出来。
为了让开发者、数据科学家、技术爱好者和学生能够充分利用微软的人工智能API,开发出更强大的应用,拓展全人类的智慧,微软特地推出了《微软人工智能公开课》,邀请各个领域的专家为不同知识程度的人工智能从业人员及爱好者提供针对性的专业辅导。该课程可以通过登陆微软虚拟学院轻松获取。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。