1
宗仁,李尊,高菲联合编译。
一种普遍被认同的观点是:AI的发展速度会是指数式的,可能现在它看起来还很蠢,但是在你意识到它已经变强之前它就会越过那个“奇点”,迅速超过你,然后将你远远的甩在后面。
后来一些人开始慢慢意识到,奇点论确实有些夸张了。但是AI到底对我们的生活有没有影响?确实是有的,甚至很多时候,你能感觉到一些怀疑论者的观点并不夸张,甚至最近还有人说,随着人们越来越依赖于机器基于大数据以及各种算法帮他们做出的决定,我们实际上已经将自己的人生交给机器人控制。
本期硬创公开课,我们邀请到了微软亚洲研究院的院长洪小文博士,为我们讲解随随着AI的快速发展,AI到底能不能跟我们的智能相提并论(上)。
洪小文,微软全球资深副总裁,微软亚太研发集团主席,微软亚洲研究院院长。对微软SAPI(Speech API)和Speech Engine技术的发展作出了众所公认的卓越贡献,并多次获得类别不同的荣誉和奖励。它还是美国电机电子工程师学会院士(IEEE Fellow)和国际公认的语音识别专家,现任《美国计算机协会通讯》(Communication of the ACM) 的编委,并在国际著名学术刊物及大会上发表了百余篇学术论文。他参与合著的《语音技术处理》(Spoken Language Processing) 一书被全世界多所大学采用为语音教学课本。另外,他在多项技术领域拥有36项专利发明。
洪小文既负责过基础研究,又管理过产品开发,同时,他还在多个研发领域有所涉猎。现在洪小文博士是微软亚太研发集团主席兼微软亚洲研究院院长,全面负责推动微软在亚太地区的科研及产品开发战略,以及与中国及亚太地区学术界的合作。他认为自己多年来形成的“双重视角”或许可以帮助国内的年轻学者把握到正确的方向。
大众对AI的恐惧大部分源于一些科幻电影、小说的影响,以及部分媒体的充分报道。所以我觉得这种恐惧心理也蛮自然的。
大众对于AI的恐惧有一定的合理性和规律性,主要可以从以下两个方面来看:
AI加上所有计算机的软件硬件加起来, 的确具有非常强大的能力:人们对于比自己能力强大的东西除了喜欢以外,在某种程度上,产生畏惧感也是很自然的。
人们对有智能的东西充满好奇却又有所担心(Intelligence):人一直对智力、智能充满好奇,也希望能够增加自身的智力,但是人又很害怕别人或者其它事物比自己聪明,会操控自己。也正是因为人工智能赋予计算机一定的智能才使它与其他新生事物有所不同。
人们对AI的畏惧感由来已经。1950年美国时代杂志的封面就表达了人们对计算机智能的担忧。当时计算机尚未普及,但是相对于,飞机,卡车这种庞大的机器,人们就已经开始担忧AI是否会比自己聪明,进而对自己产生威胁。
确实,有类似的地方,也有不类似的地方。
类似的地方:人和机器在做选择时都相当于做一个概率选择。
今天AI的系统,特别是从1990年以后的AI系统,不管是基于统计模型的,还是基于大数据、深度学习的,实际上是一种基于概率框架下不确定性的选择过程。而人类在做每一件事的时候也常常要面临做一些决定,我们做的很多决定也都不是百分之百可以预测未来的,所以我们也是在做一个基于概率框架下的决定,甚至于是一个随机的,所以在这方面我想是类似的。
不类似的的地方:人做很多决定都是不可逆的,非重复的。
像选择我们的伴侣,选择求学学校和专业,选择职业生涯,每一次决定,就算有类似的地方,都是不同的决定。而且我们都是在一个数据信息不完整的情况下做决定。相对地,机器帮我们做的决定多半数是重复的决定,因为有重复性,它就可以搜集数据,利用各种机器的方法来优化。从概率的角度看,比如当一件事情要做很多次,甚至于到无限多次的时候,概率会体现,而且一定是概率最高的东西会是你最期望的答案。
相反,就算知道概率分配,人也不一定选概率最大的那个,而可能选一个对个人来说最满意的,产出比(Outcome)最大的一个,甚至于做一些不理性的选择,因为就一次。而这种一次性的决定,概率能帮助我们的地方不大。机器做决定,则需要尽可能收集最多的数据,然后根据这些数据,对一些重复性的事情进行优化,然后做出一个决定。
AI在绝大多数情况下是给我们人类带来福利和便捷的,但是每样东西都有一体两面,在享受这些福利和便捷的同时,的确可能会产生一些相对应的风险。这些风险中包括以下两个方面:
对于AI的依赖性
举例:人对于方便、好用的技术/事物会有依赖(比如记电话号码),很多人到现在都用智能手机来存储电话号,我自己现在也不记得家里的号码。
更深一层的是对于计算机背后具体细节的不了解而无法使人信服,且导致人们解决问题的能力有可能降低。
举例:GPS导航,当下很多人并不知道为什么GPS要做出这样那样的规划路线。再比如AlphaGo或者深蓝打败人类,但是它为什么下这一步?背后的原因并不清楚。
AI或者特别说深度学习最大的一个缺点,它们用这些模型也能做出很多了不起的决定,但是在它背后人们并不知道为什么要做出这个决定,无法让人心悦诚服。AI技术事实上是在这方面非常薄弱,尤其是今天的深度学习,你完全不知道它为什么来做这件事情。以后我们解决问题的能力有可能变弱,因为我们没有办法洞察这些细微的部分和推理的部分。
最近越来越多被问到有关强AI、弱AI的问题,在这里先给大家解释一下什么是强AI、什么是弱AI。而且可以先给大家说一下,强AI其实没有那么强,弱AI其实可以很强。
弱AI
其实我个人喜欢另一种说法——局限性的AI或者是狭窄性的AI。弱AI其实说它只能做一件事情,更早以前把它叫做专家系统(Expert System ),到今天我们把它称作深度学习或者其他的称谓。几乎所有深度学习(比如:物种辨认、语音识别等)都只能做那一件自己擅长的事情。
举例:比如像我们做一个项目预测北京的天气,就只能预测北京的天气。所以弱AI其实是一个专才的概念,早期叫专家系统,和人类的专才也很像。举例:木匠、裁缝、天文科学家,他们都是在自己的领域非常擅长,弱AI和他们类似也算专才。
强AI
与弱AI相反,强AI就是像人类一样的通才。像人类一样,可以看、听、跑、做算术、了解语言、翻译、画画、思考等,类似于人类有通才型的智慧叫做强AI。
大家也知道,通才和专才的差别。通才的话如果拿每一样去和专才比是比不过的,但是专才呢不一定能有通才这么全面。比如像爱因斯坦在作为最伟大的科学家之一,在自己的生活上可以说是比较笨拙,不一定比得过寻常的老百姓。
这也是为什么说强AI其实在每一个单的项目是弱的,只是说它有通才的本领。
其实还有很多的例子,比如人类跑的没有有些动物快 ,所以我们发明汽车可以让我们跑得更快。再如人类不能像鸟儿一样飞翔,所以我们发明飞机可以让我们飞上天空。所以可以说每辆车、每架飞机就是一个专才。所以说弱AI或者狭窄性AI 也好,人类到现在造了很多工具,每一样工具都有特殊的功能,其实就是一个专才。我们人类作为一个通才,把这些专才拿来为自己所用,所以可以完成很多自己不能完成不的事情。
有人会问这些都是机器,会不会可以把弱AI与强AI结合之后,造出一个又是通才但是每方面都很强的机器?
这种可能性肯定会有,但是确实非常难。就像我们知道机器是专才,人类是通才,如果你要一个东西每一样都很强,那么大家会害怕这种东西也是可以理解的。不要说机器或者是AI,如果今天出现一个人在每个方面都是专才,大家都会觉得很可怕。因为跟我们所了解的不一样,而且我相信这种可能性永远也不会出现。但是如果真的出现这种情况的话,确实是相当可怕的。
到底有没有这种可能?
人是一个通才,有很多缺点 跑不快、不会飞、算不快、也不够准。发明计算机,算得比我们又准又快。人类最了不起的就是创造力,但是创造力里面和人的弱点似乎有点相关的。
人的意志好比频谱,频谱高的时候,即当人的意识强的时候做事情很精准,但是,有时当人的意识薄弱时,创造力反而很高。比如,古时候的诗人,作家,如李白,白居易常常在喝得酩酊大醉的时候,能够写出艺术造诣很高的诗篇,贝多芬晚年完全失聪的时候,做出非常了不起的《第九交响曲》;梵高割掉自己的耳朵后,在身体有痛楚,意志很薄弱的情况下,创造出举世瞩目的画作。近代,凯库勒梦到一条蛇,变成一个六角形,咬住自己的尾巴,他由此得到灵感,发明了苯的结构,对有机化学的发展产生了重大影响。所以,在人意识很薄弱或不专注的时候,有可能将两个看似毫无关系的事物联系在一起,做出大胆的假设,当然也要经过小心求证,产生如此强大的创造力。强AI当然有其强的地方。没有人具备所有的专长,但是,我们人往往能够在意识薄弱的时候产生强大的创造力,现在尚没有机器能够模拟人的这种创造力。有人在探讨,到底有没有可能制造出强AI而没有创造力?不要说是在计算机界,不论是在生物界还是心理学界,脑神经科学界,大家都赞同:在没有意识的情况下,是很难出现强AI的。人们离强AI还有距离。
其实大家不必对AI有过于消极的态度。
从专家角度要做有可控性的技术。
几乎所有的工具都是能让我们可控的,包括AI,包括计算机,飞机,刀等各种我们造出来的工具,拿车来讲,我们开一个车要往东就要往东,一定要可控。但我在家里,我让我太太倒一杯咖啡,可能10次她只有5次会去,有5次她会说你有手有脚怎么不自己去。这里反应出一个问题,我们对人和对机器是有完全不同要求的。
所以我们一定要可控性,我想大家都同意,你没事去做一个东西,不能控制它有什么意义么?我常常说一个笑话,假如你要造一个东西又聪明,你又不能控制他,那不就是我们的小孩吗?我们都巴不得小孩比我们聪明,但是我们又不能控制他,如果真想做个不可控的东西,生小孩就好了,如果我们做机器,就是要控制它的。
人工智能都是由人编写的算法,人的算法高过机器的算法。
上面给大脑发了一个左右脑的图,它可以看到,我们讲的计算机的那些功能和属性,大部分属于左脑,发散性,创造性,创造力很多是跟右脑相关的,计算机充其量只是一个最好的左脑。1+2+3+4+……+N这个题,有两种算法,在高斯求和算法之前就是慢慢地加,有个叫高斯的数学家,有次老师叫他从1加到1000,心想可以耗掉他半个小时,但他几秒钟就给出了答案,用的 n (n+1) /2N算法。
从1+2+3+4+……+N有两种算法,今天若是要加到无穷大的一个数,如果计算机用笨的方法计算,人用好高斯的方法计算,我可以保证计算机还是算的比我们快。但人跟计算机的比赛,我们不要忘记的是,它永远都是算法+真正去计算两个合起来的比赛。
在上次的比赛中,AlphaGo除了算法,还加上至少几万台的机器在背后计算,我觉得李世石很“可怜”,除了算法,还用大脑去计算。我们知道人的计算肯定比不过计算机的计算,不管是加减乘除以及开根号,都是以卵击石。所以如果只比算法的话,我觉得可能李世石的算法还是要高过AlphaGo的算法。
所以我的结论是,直到计算机可以自己编程,能够自己产生下一个算法,不然计算机跟人要比智能,是没得比的。我们的创造力在于能创造一个新的算法,去解一个未解的问题,去解一个已解的问题,解地比比人好,这叫做算法,而今天的所有算法,都来自于人类,包括深度学习。
最后要讲的,今天机器,计算机,AI做的事情(99.99%)都具有重复性。
如记住电话号码,GPS导航,所有大数据运算,深度学习,都是搜索很多大数据导入预先设定的算法中,进行最优化,概率最大或期望值最高的选项。我想大部分的人都会同意我,对于重复性的事情我们很高兴能让机器人或者AI去做。我们人要去做最高阶的事情——那些一辈子只能做一次的决定。这类事情才是我们的创造力需要解决的问题,基于这些问题我们再考虑去发明一些算法,这类事情也是我们人类应该发展的方向。
关于
深度学习从2006年到现在,没有大的基础理论进步!但现在工业界热情高涨,我们在盲目推动什么?
现在各个开源平台推进不算迅速,是开发者的水平没跟上,还是推开发平台的大公司功能不完善?
作为微软亚太研发集团主席和微软亚洲研究院院长,如何保证研究和开发项目的创新性和领先性?
……
将在我们的下篇文章中呈现,敬请期待!
雷峰网原创文章,未经授权禁止转载。详情见转载须知。