2
本文作者: 温晓桦 | 2016-03-12 18:52 |
编者按:上个月,美国科技企业家Ben Medlock预言称,李世石对战Google人工智能程序Alphgo时,会像樊麾一样输给计算机,到那时,我们可以说这是人类历史上第一次在公认为最复杂的游戏中败给计算机了。但是,这位企业家的想法,用黄子华的话说就是“那又如何?”!
以下就是他在一个月前发表的观点:
人工智能在围棋上击败人类,这真正意味着什么呢?几十年来,科学家创建计算机系统就只有一个目标——拥有类似人类的大脑推理能力。我们在这条路上走了多远?这一项成就有多重要?
智力是一个模糊的概念。如今有许多对智力的定义,但还没有一种定义的描述能够普遍为人们所接受。或许我们可以这么解释——高级智能包含三个主要因素:
呈现(representation)——一个人工智能如何感知、模仿周围环境决策(planning)——人工智能如何设计行为序列来实现目标
反思(Reflection)——人工智能反应周围环境和行为的能力
呈现是指人工智能依照周围世界创建自己的内在模式。一方面,围棋的世界很简单——19*19的格子里,黑白双方在361个点上轮流落子。然而,人工智能的呈现力不仅包括外部世界的静态结构,还有事物随时间而变化的形式,以及更重要的是,这一切都对人工智能意味着什么。围棋胜利而目标是要在棋盘上占据更多的位置,因此要成功就需要有一种能够判断接下来这步棋是否能够帮助最终胜利的可靠直觉。
任何环境中的有效呈现都需要将特定的意义归属到给定目标的特定子元素中。人类记录了成千上万被赋予意义的对象之间的联系。比如,假若你被困在铁轨上(而你的目标是要生存),那么迎面而来的就包含着火车、轨道、人口死亡率等属性了。
一个成功的围棋手需要判断出棋盘上所有形势、模式隐含的意义,并根据判断的结果来制定战略。为了使得对局中的问题容易驾驭,这些模式并需能够概念化。举个例子,一个人工智能程序应该要识别出不同棋局上的相似形势。AlphaGo则依靠卷积神经网络(CNN),用过去的棋局进行训练来加强策略学习。尽管围棋的世界很简单,但具体到理解形势上就变得非常具有挑战性了。这个就连人类也不能有十分大的把握。
同样的想法也在现实世界中上演。你不需要识别出迎面而来的火车的材质和样式,但你要知道这是一种危险的形势:火车不会停下,要生存只能是挣脱轨道。在那一刻你要知道的,都是根据以往对于快速移动的庞然大物的认识经验而来的。
那么,对标人类的呈现水平的话,AlphaGo距离还有多远?
非常长远的距离。
尽管围棋的游戏规则非常复杂,判断出下一步最优走法的技术很微妙,但和精确地模拟自然世界的挑战相比,围棋还是太简单了。就表现力而言,DeepMind团队利用深度/强化学习和视频游戏完成的任务可以说更有意义。但是,人工智能的呈现水平至少还有几十年的发展路程。
智力的第二个属性——决策,可以定义为机器用内部的呈现能力来预测将能达到目的的行为序列的过程。在围棋中,机器的决策就是计算出一系列能够赢得盘面的走子方法。在一个每一步都有极高分支系数的游戏中,机器通常只能在搜索空间变得过大前提前计算几个回合。因此,机器表现力能否提供可靠的相对值测量指示是决策过程的关键。
在我们的日常生活中,我们会发现在自己在不同情况下有着不同的目的。一顿饭过去几小时后,我们会感到饥饿,然后利用对世界的呈现来策划一系列的行动,以找到最近的咖啡厅,吃上一块三文治。这满足了暂时的目的——饥饿——生物性层级中的一个目标,因求生意志产生的根本动力。
目标、呈现和决策三者之间有着紧密的联系。没有一系列的目标,我们不可能在呈现的基础上对事物分派意义,而且通常来说,呈现的形式越丰富可靠,所需要的决策步骤就越少。于围棋而言,如果你的知识呈现不足以判断每一个子的形势和力量强弱,你就需要考虑一大堆有可能的走子方法,来计算出哪一种方案最有胜算。历史上,这个问题一直困扰着围棋AI。其实同理地,如果你不熟悉身处的路况,你也会要走许多弯路才找到目的地。
所以,我们可以如何对比AlphaGo这类人工智能程序和普通人类的决策能力呢?在现有充分的呈现条件下,计算机更善于决策。数字计算机的速度可以依靠内部的数字结构同时处理多种策略,那么在有许多不确定的选择需要探索验证时,计算机就有优势了。这意味着,计算机事必擅长许多智力游戏,只要这些游戏的呈现条件相对简单(围棋的外表没什么,就361个点和黑白子)。同样,计算机也会擅长于解答数学难题,或者在海量数据中寻找有意义的模式。
由于具有高水平的角度,人类决策相对简单,但这依靠对世界格外丰富的呈现。想象一下,当人类试图去吸引一名同伴时,他/她或许需要策划一系列的活动,比如一个晚餐邀请等等。为了达到目的,高级的策划还需要一些小计划来支持,比如寻找一家适当的餐厅等等。但是,这其中真正复杂的问题是,见到对方后合理表达想法的“精细模型”——言辞、行动和肢体语言,以及根据现场选择下一步行动的决策能力。而这些所谓决策的过程,实际上更是针对外部的内部呈现。
人类某些决策行为显然是高度复杂的。成功的设计和一个庞大、复杂的目标设计(比如汽车),需要大量详细的设计以及不同的人许多不同的努力和协助。然而,这些操作的复杂性对于构建自然界的内部呈现来说都只是微小的部分。因此,决策并不足以成为开发人类层次的人工智能的障碍。而就算计算机能够使用工具、能够胜任许多复杂任务,这也没什么了不起的。它们对自然界的呈现与人类相比,依旧渺小。
反思是指人工智能考虑周围环境和行为及思考过程的能力。这个属性就是我们所称的意识或自我意识。因为最难以理解,这是最困难的一部分。为了理解人类大脑的自我意识,前人提出了一系列的解释。
传统上,二元论哲学将非物质的“灵魂”称之为意识,而最新的意见表示,它只是高阶类人脑信息系统中的一个自然产生的特征。
尽管我们没有一个缺乏一个公认科学的解释,但是在我们自身的认识基础上,也能对意识作出一些描述。就像我们能够反观一些我们观察的事件等等。
据研究者提出,意识是伴随自然语言的演变而在人类大脑中产生的。当大脑获得改善功能交际和反思自己的话语,以及考虑那些导致了特定行为的过程的能力时,意识就不自觉地产生。人们普遍认为,意识是高等哺乳动物来自大脑皮层的功能——大脑中掌握语言和推理的功能区。
要弄清楚为什么人类智力拥有非凡的反思能力,我们还有很多研究问题需要解决。然而,我们可以相对确定的是,AlphaGo并不具有这个特性。任何其他现有的人工智能系统都不具有。
反思究竟是高级智能的先决条件,还是只是一个衍生物,这个问题还有待解决。但无论如何这都提醒我们,我们对高级智能还有多少未解之谜。
总之,熟练的围棋对弈是人工智能的一大成就,我们在开发能够识别环境的人工智能系统和高效决策的算法上已经做得越来越好。只是,我们对机器反思能力的探究仍然处于黎明前的黑暗,我们甚至不知道,机器意识对于人类真正意味着什么。不过,这在哲学和科学领域都是一个有趣的问题。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。