2
本文作者: 逸炫 | 2016-04-12 17:52 |
编者注:本文节选自Medium的“AI Revolution”系列。这一文章呈现了关于人工智能发展过去、现在和未来的总览。一起了解谷歌技术总监、人工智能专家Kurzweil、机器学习专家Jeremy Howard和Wait But Why博客Tim Urban等人的观点,我们在人工智能的发展路线图中处于什么阶段?什么时候会出现像人类一样厉害的人工智能,还有超过人类智能总和的超人工智能?
谷歌无人车看到的世界。图片基于2013年嵌入式Linux大会中谷歌无人驾驶车的视频。图片来源Medium。
我们所说的人工智能(AI),是一个广义定义。虽然众说纷纭,大部分专家认为,人工智能发展有三个水准:
弱人工智能(ANI)
第一类智能水准:能够专注于一个领域,例如能战胜世界围棋冠军的AI,但是也只能下围棋。
强人工智能(AGI)
第二类智能水准:达到和超过人类水准的人工智能,以Gottfredson博士的定义,有能力“推理、计划、解决问题、抽象思维、理解复杂概念、快速学习、从经验中学习。”
超人工智能(ASI)
第三类智能水准:超过所有人类智能总和的AI——用Tim Urban的话说,“从比人聪明一点点……到聪明一千万倍。”
那我们现在在哪个阶段呢?我们现在达到了第一个水准——弱人工智能——在很多方面,它已经进入了我们的生活中:
l 汽车里到处都是ANI,从可以在紧急情况下刹车的电脑,到可以调配汽车加油参数的系统。
l 谷歌搜索是一个很大的ANI,有很多非常复杂的方法将网页排序,知道给你显示什么。同样的,Facebook Newsfeed也是。
l 谷歌正在测试中的无人驾驶汽车,有一个很强的ANI系统,让它可以感知世界并做出反应。
l 电子邮件垃圾邮箱过滤器,知道什么是垃圾邮件、什么不是,并且学会按照你的偏好来过滤邮件。
l 你的电话就是一个小型ANI工厂……你用地图APP导航,收到定制化的音乐推荐,和Siri聊天等等。
例子不胜枚举。弱人工智能系统不怎么惊悚。失控的ANI会带来危害,但通常是独立事件。虽然ANI不会造成人类的生存性恐慌,相对人畜无害ANI应被视为一个先兆。每一次弱人工智能的创新进步,都在往强人工智能和超人工智能更近一步。
没有什么比试图创造像人类一样聪明的计算机,更能让人体会到人类有多聪明了。造一个可以进行两位数计算的计算机很简单,但是造一个看到狗猫能回答这是什么的计算机——特别困难。造一个可以下围棋的计算机?搞定。但造一个计算机能够读6岁小孩的图画书、不只能识别文字、还能理解含义?谷歌正在努力,投入了几百万美元。
一些对我们来说简单的事情,其实非常复杂。之所以对我们简单,是因为我们(和大部分动物)在千百万年的进化中已经优化了。然而,要做大数字运算、或者下围棋,对生物来说还是新游戏,还没有进化出相应的熟练度。所以,计算机在围棋上打败我们不算特别困难。
一个有趣的例子:
图片来自Medium。
图A:你和计算机都能知道,这是一个由两种颜色构成的长方形。第一回合平手。
图B:你能轻松描述出各种模糊和透明的圆柱体、长板和3D转角,但是电脑会输得很惨。电脑会说,这儿有各种二维形状和灰度——图画里实际的内容。人脑可以自己脑补很多,理解深度等图片想表现的东西。
图C:电脑看到二维的黑白灰混合物。要达到人类级别的智能,电脑得理解面部表情之间的微妙区别,愉快、轻松和满足之间的区别。
图片来自Medium。
要达到人类大脑的智能水平,AI需要达到人类大脑的计算容量。而目前,只有很少的大脑区域已经精确测量。Kurzweil说开发了一种估算人脑总体运算速度的方法。根据摩尔定律的估计,计算机硬件进步会以惊人的速度指数发展。比开发硬件更难的是软件。“真相是,没人真正知道如何让机器更加聪明。我们还没教会计算机认识猫狗,判断一个手写的B是不是难看,或者一部电影是不是烂片。”Tim Urban在网站Wait But Why说。但普遍来说,有三种策略最为常见。
1、 向大脑学习。
最简单粗暴的办法就是抄袭大脑,按照大脑结构设计计算机架构。人工神经网络就是一个例子。更极端的方式是模拟整个大脑,不过截止现在,我们只能模拟一毫米厚大小的大脑,大约有302个完整神经元。为了让大家有个概念:大脑有八百六十亿个神经元,由几万亿个神经突触连接。
2、 让计算机学会进化。
即便我们模拟出了大脑也不一定成功,就好像完全模拟鸟儿翅膀运动来建造飞机一样。也许最好还是以建造机器的方式建造机器。被称为“遗传算法”的方法是,让一群电脑一起完成任务,成功的电脑们互相“结合”,不成功的电脑们则被淘汰。
3、 让计算机自己想去,我们不管了…
最后一种办法最简单,也最惊悚。我们先建造一个计算机,只有两个功能:研究AI,和给自己写代码。我们教计算机成为计算机科学家,自己进化成长。这被认为是我们最有希望的一条路径。
密歇根湖的容量大约与我们的大脑容量相同(以每秒计算)。根据摩尔定律,计算机处理能力每18个月翻倍。如果以这个速度用水填满密歇根湖,你会很长时间都看不到什么进展,然后忽然间,湖就装满了。图片来源Medium。
可以非常现实地说,某一个时间点,我们就会实现强人工智能(AGI)——到达人脑级别智能的计算机。这是不是意味着,从这一刻起,计算机会和人类具有同等能力?实际上,并不是——计算机会比人类高效多了。因为计算机是电子的,还会有以下优势:
1. 速度。“大脑神经元的极限在大约300赫兹,而今天的微处理器……运行速度大约是2千兆赫兹,或者说,一千万倍。“Tim Urban说。
2. 记忆。遗忘或混淆对于计算机来说是不存在的。计算机在一秒钟内能记住的内容超过人类在十年内能记住的。电脑记忆更加精确,有更大的内存。
3. 运行。“电脑晶体管比生物神经元更加精准,老化的可能更低(即使老化了,也可以修理或者替换)。人类大脑容易疲倦,而计算机可以不停歇地运转,用最高速不停歇。”Tim Urban说。
4. 集体能力。在人类中,团队合作非常困难,因为费时间的沟通和复杂的社会层级。团队越大,每个人输出的速度越慢。而计算机不受困于某一个生物体,没有自我,可以同步,可以更新自己的操作系统。
图片来源Medium。
想一想人类级别的AGI能有多大好处,很明显,到时候人们最多只会停个片刻,然后继续向前,奔向超过人类智能的新世界。人类与超人工智能的差异不会是速度,而是”的质量——与速度完全不同。人和大猩猩的区别,绝对不是思考速度——而是人类大脑有一些复杂的认知模块,能够让人实现复杂语言表征、长期规划或者抽象推理等活动。让大猩猩的大脑加快几千倍也不会把大猩猩变成人。“
有一个比我们更高质量的物种存在,为了体会这是多大件事,我们来想象一下,AI在智能阶梯上,比我们高两个台阶。Tim Urban说:”它增强的认知能力和我们的差别,会像大猩猩和人类之间的鸿沟一样巨大。大猩猩永远无法明白,一个门把手之中包含了多少魔法……这就是两步台阶的区别。“
“机器越聪明,越能够快速提升自己的智能。“从蚂蚁到一个普通人类也许要7很多年,但是从普通人到爱因斯坦,也许只要40天。“到了爱因斯坦的阶段,机器可以更轻松地进行更大幅度的跨越……当我们听到新闻,说已经有第一台机器达到强人工智能后,也许很快我们就会看见地球上出现一种位于这个位置的智能:
图片来源Medium。
你觉得这个预言有可能吗?来看看现在的人工智能专家们,在两份调查问卷中怎么说。
Vernor Vinge教授、科学家Ben Goertzel、升阳电脑联合创始人Bill Joy还有,最出名的,发明家和未来学家Ray Kurzweil——他们和许多人一样,都同意机器学习专家Jeremy Howard的观点,他在一场TED演讲中给出了下面这个图表:
Jeremy Howard在Ted演讲“能学习的计算机,多么美好与骇人”中给出的图表。图片来源:Medium。
一些人相信这很快就会到来——指数级的增长正在发生。其他人,例如微软的联合创始人保罗·艾伦、心理学家Gary Marcus、纽约大学计算机科学家Ernest Davis和科技创业家Mitch Kapor,都相信Kurzweil等思想家都大大低估了这项挑战。而Kurzweil阵营会反驳说,我们都低估了指数增长,他们会将怀疑论者比作与1985年那些看见慢慢发芽的因特网说“这在短期未来内不可能成什么气候”的人。对此怀疑论者会反驳说,人工智能的每一步新技术进步的难度,同样在以指数增长,抵消了科技的发展。
然后还有包括Nick Bostrom在内的第三阵营,相信谁也没法确定未来人工智能的发展路线,认为第一,这绝对可能在不远的未来发生,第二,但这也没有保证,这也可能需要更长的时间。
还有其他人,例如哲学家Hubert Dreyfus,相信以上三个阵营都太天真了,竟然相信未来可能会有超级人工智能——具有超过所有人类智能的人工智能。他认为,这永远都不太可能。
所以,当你看着所有这些观点的时候,你会得出什么结论呢?
2013年,Vincent C. Muller和Nick Bostrom对几百名人工智能专家进行了以下问卷:“仅为回答问题起见,假设人类科研活动会继续发展,不发生重大负面干扰。你认为到哪一年,会有(10%、50%、90%)可能出现达到人类水平的机器智能(或我们所称的AGI)?”该问卷让专家们写下一个比较乐观的时间预测(有10%可能性我们实现AGI的年份)、一个比较实际的猜测(有50%可能性我们实现AGI的年份)和一个保险的猜测(有50%可能性我们实现AGI的最早年份)。数据最终放在一起的结果如下:
l 乐观预计年份中位数(10%可能性):2022年;
l 现实预计年份中位数(50%可能性):2040年;
l 保险猜测年份中位数(90%可能性):2075年。
所以,参与问卷的人就中位数来说,认为我们可能在25年后实现AGI。90%可能性的回答表示,如果你现在是青少年,中位数的回答以及其他超过一半的AI专家都认为,AGI会在你的有生之年实现。
Muller和Bostrom还问了这些专家,他们对以下可能性的判断:1)在2年内实现超人工智能(也就是,几乎马上会到来的智能爆炸),2)在30年内实现超人工智能。回答者需在每一个选项现在一个概率。结果如下:
l 2年内实现AGI-ASI转化:10%可能性;
l 30年内实现AGI-ASI转化:75%可能性。
位于中位数的回答认为快速的(2年)AGI到ASI的转化只有10%的可能性,而长一些时间(30年内)的转化为75%可能性。我们不知道这个数据库中,大家认为50%的可能性会位于多长的时间长度,但是为了大致估计,我们可以猜测也许大家会说20年。
所以,位于中位数的观点——那些位于AI领域中心的专家们——相信最现实的预测是,超人工智能会在……实现强人工智能的2040年,加上转化到超人工智能的20年,在2060年超人工智能会到来。
当然了,所有以上的数据都是猜测的,而且它们只代表AI专家圈中的中位数观点,但是它们告诉我们一点,很多对这个话题了解深入的人会同意,关于可能改变世界的超人工智能的诞生时间,2060年是一个非常合理的预测时间。也就是,距今45年。
via Medium
雷峰网原创文章,未经授权禁止转载。详情见转载须知。