您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
国际 正文
发私信给温晓桦
发送

1

AI的进阶:Google人工智能教你重新做人

本文作者: 温晓桦 2016-05-24 08:20
导语:没有AlphaGo的37手,又哪来“神之一手”的78?

AI的进阶:Google人工智能教你重新做人

编者按:借着谷歌IO大会的东风,《连线》杂志发文深入剖析AI向人类进化的整个过程,并提出,在这个过程中,虽然人类担忧AI会取代人类等,但事实上,AI不仅不会取代人类,还能推动人类进步。以下为文章主要内容:

人机围棋大战第二局,AlphaGo一手落向空白区域的37惊呆了世界——李世石看到后离开了,远程观看并解说的雷德蒙同样震撼。这个西方唯一的九段棋手表示,“我真的不知道这是一步好棋还是坏棋。”而与此同时,美国围棋协会通讯副总裁英语解说员克里斯·加洛克则表示,“这是一个错误。”

这一步李世石长考了大约二十分钟,但四个多小时候,他还是输了。后来的后来,在这场人机大战中,链接了数百个分布在世界各地的谷歌数据中心的AI程序,击败了可能是有史以来人类设计的最复杂的游戏中最好的选手。

对37手同样产生疑惑的是樊麾,他不只是曾经5比0输给AlphaGo的欧洲围棋冠军,而且从那以后,他成为了AlphaGo的陪练。与李世石交战前的五个多月里,樊麾与AlphaGo进行了上百盘比赛。他看着AlphaGo一天天地长大。樊麾失败的次数越来越多,但他是最了解AlphaGo的人。看着AlphaGo的第37手,他深知这其中一定有常人难以理解的地方,计算10秒后,他表示“竟是如此妙手”。

对,大多数人认为,AlphaGo的胜利是计算力的强势碾压,然而,第37手证明AlphaGo不只是计算,它表现出一定程度理解围棋的能力,就像人类棋手一样,具有“棋感”。所以,37手具有历史性的意义,它表明机器和人类终于开始有了真正融合的一天。

AlphaGo创始人哈萨比斯1976年生于伦敦,他4岁开始接触国际象棋,13岁晋身“大师级”(chess master),在14岁以下棋手中名列世界第二。AlphaGo团队的领导者席尔瓦说道,“我曾见他出现在我们镇上,赢得了比赛,然后离开。” 他们两人在剑桥读本科时正式见了面。为了了解人类的思维,研究机器是否也能变得智能,两人的专业都是计算神经科学。哈萨比斯在伦敦大学学院(UCL)攻读认知神经科学博士课程时,主攻脑部负责导航、回忆及想像的海马回(hippocampus) ,为打造思考方式更近似人类的电脑打下基础,他提出的新理论获《科学》杂志评为2007年十大科技突破。 

1997年IBM深蓝电脑击败国际象棋冠军时,正好是哈萨比斯在剑桥大学攻读电脑科学的时候。那时他在剑桥内第一次接触到围棋——这个已有千年历史的棋类运动,而刚刚接触围棋的哈萨比斯忍不住思考:为什么机器从未破解这种智力游戏?也因为如此,哈萨比斯暗下决心,希望做出一个下围棋胜过人类的电脑系统。用博弈论的术语讲,围棋与国际象棋和西洋跳棋一样,是一种完全信息博弈游戏——毫无运气可言,信息完全公开。通常来说,电脑应该轻松就能将其掌握,但其就是攻克不下围棋。 

哈萨比斯表示,在围棋中,无论是人类还是机器都无法算出每一步的最终结果,顶级棋手靠的是直觉,而非硬算——即是棋感。“围棋布局讲究美学,好的布局看起来充满美感。”

1998年,两人毕业后合开了一家电子游戏公司。游戏是检验人工智能的好办法。但在2005年,他们的游戏公司倒闭了。席尔瓦去了阿尔伯塔大学研究人工智能的初级形式——增强学习。增强学习技术让机器可以重复同样的任务,找出效果最佳的决策,从而实现自主学习。哈萨比斯则去到了英国伦敦大学学院,获得了神经系统学的博士学位。两人的专业都是计算神经科学,为了研究机器是否也能变得智能。2010年,他们再次相聚——哈萨比斯在伦敦成立了一个名为DeepMind的人工智能公司,席尔瓦则加入了他。

当谷歌CEO布林遇见哈萨比斯时,哈萨比斯说:“几年内,DeepMind或许能打败世界围棋冠军。”连以远见卓著的布林也觉得不可思议,但他们做到了。

人机大战第二局结束后,席尔瓦进入AlphaGo的控制室,监控其运行是否正常,并跟踪它对每场对弈结局的预测有何变化。 席尔瓦调出了AlphaGo在对弈期间做出的决策记录,查看AlphaGo在下出第37手的前一刻发生了什么。 

在DeepMind和AlphaGo出现之前,机器下棋都依靠暴力破解的方法,即穷举,IBM的深蓝用的就是这种。当时,深蓝也走出了人类意料之外的一步,但是,暴力计算解决不了围棋。围棋有太多变化,电脑都无法硬算。

所以,DeepMind只能另辟蹊径——机器学习。

DeepMind团队将3000万步人类下出的围棋步法输入到一个深度神经网络中。这个网络模拟人脑中的神经网,团队也希望它能够像人脑一样思考,自主学习。比如Facebook的计算机视觉技术,谷歌的语音识别。观察足够多的猫,它就能认出猫;输入足够多的语言数据,它就能听懂自然语言;同样,输入足够多的棋谱,它也能学会如何下棋。但是,创意联想与规则运用是两码事,比如37手并不在那3000万步棋谱之中,那么它是如何做到的呢?事实上,AlphaGo还计算出,一名人类专业棋手下出这样一步的概率大约只有万分之一,但它还是选择了这一步。

“它知道职业棋手这么下的几率很低,但当它经过自己的计算后,它可以推翻原先输入的棋谱参考,”席尔瓦解释道,从某种意义上来说,AlphaGo开始自主思考。它做出的决定不是以其创造者在其数字DNA中编入的规则为基础的,而是以其自学的算法为基础的。

让它自己学会了下棋后,席尔瓦让AlphaGo和自己对弈——一个与其版本不一样的神经网络。在自我对弈训练过程中,AlphaGo记录起那些最优的走法——这就是席尔瓦曾研究的增强学习技术。

给自己打谱——这是棋力提高的有效方法,但这是部分技巧。懂得分析局面、有了逻辑计算还不够,在茫茫棋盘中找到妙手还要靠直觉,就是根据棋形进行的感性预测。在增强学习技术实现后,席尔瓦的团队将这些非人类围棋步法输入到第二个神经网络中,教它像深蓝那样预测国际象棋棋局一样预测围棋的棋局。将其与自己对弈多场后收集到的所有信息输进去后,AlphaGo开始可以预测一场围棋对弈可能展开的方式。这便是直觉。比如AlphaGo的37手。即使回到后台查看过程的席尔瓦,也无法知道AlphaGo是如何得出这个结果——这就是棋感的形成。

AlphaGo是 DeepMind 跨入 AI 领域的重要一步,但对于“AI取代人类论”,哈萨比斯表示无需担心,在他看来,AI是一个工具,一个结构智慧,让人类更好的工具。虽然AlphaGo目前有这样的能力,但它未必真的知道“自己”在做什么。所以,利用这样一个工具,哈萨比斯又是如何设想未来5年的AI世界的呢?谷歌花6.5亿美元收购一家公司,不会只是玩一场棋牌游戏。

有了深度学习和自主思维能力,AlphaGo今天可以下棋,明天就可以学设计。深度学习和神经网络支撑着十多项由谷歌提供的服务,包括它那无所不能的搜索引擎。AlphaGo另一个不那么秘密的武器——增强学习已经在教导该公司的实验室机器人们拿起并移动各种物品。

但是,商业问题并不是最重要的。当询问哈萨比斯,看见李世石输了比赛他作何感想时,他指着心口说:“我很难过。” 看到自己创造的成果他感到骄傲,但出于人类本能,他感到难过,他希望李世石能够赢下一局。

AI的进阶:Google人工智能教你重新做人

然而到了第四局,AlphaGo用同样神秘的手法掌控着棋盘上的主导权——当李世石对棋盘上的特定区域发起猛攻时,AlphaGo的应对体现出了惊人的大局观,不仅能够防住李世石的局部绞杀,还能为全盘埋下伏笔——在第37手时,AlphaGo将一枚黑色棋子置于一个旁边只有一枚白棋的地方,远离主战场。

然后的然后,到了AlphaGo下出第77手时,李世石再一次陷入长考。李世石走78手之前,AlphaGo计算出自己的胜率为70%。但就在这个时候,AlphaGo成为了下一个卡斯帕罗夫。它无法相信一个人类会下出那“神之一手”的78——其可能性接近万分之一。但换个角度想,这个思维更可怕:它在挑战人类的恐惧,它有侥幸心理。它有人类思维的有点,也有弱点。

AI的进阶:Google人工智能教你重新做人

78手逆转后,李世石在右方发动攻势,AlphaGo专为防守。在这以守为攻的过程中,AlphaGo一度看似想在右方“提劫”,却没有成功,反而跑出“死子”。随后,中后盘的每一次落子,AlphaGo平均都要思考3分钟以上。到了“收官”阶段,李世石仍旧小心翼翼,没有出现失误。最终,AlphaGo投子认输,李世石获得首胜。这也是AlphaGo自战胜樊麾以来首次向人类“投降”。

最后第五局虽然仍以李世石落败告终,但双方的奋力拼杀早已把胜负置之度外,这是一场原则的较量。人机大战开始前,哈萨比斯简称AI是推动人类进步的工具,当时这样的说法毫无根据,但随着AI投入现实生产和生活的应用越多,就越让人相信:机器也可以做得人性化,而且能与人类相互协同,相互促进。最简单的,没有AlphaGo的37手,又哪来“神之一手”的78?

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说