1
Manoj Saxena是CognitiveScale公司的执行总裁和企业家基金(TEF)——一家专注于为认知计算提供种子基金的基金会的创始董事之一。他也是达拉斯的美国联邦储备银行圣安东尼奥分行的主席,以及认知安全和分析公司SparkCognition的主席。
图片来源,gigaom
在TEF的时候,Saxena是一名总经理,他的团队创造了IBM Watson,世界上第一个用于医疗、金融和零售领域的认知计算系统。而更早的时候他已经建立、发展和售出了两个位于德克萨斯州奥斯汀市的软件创业公司。
Saxena将会在9月21-23日在奥斯汀举办的人工智能主题的Gigaom领导人峰会上演讲。为了迎接他的到来,Gigaom的Byron Reese预先对其进行了采访,询问了一些关于AI的潜能和其将对商业造成的冲击的问题。
Byron Reese:你觉得电脑将来能智能到什么程度?
Manoj Saxena:我相信他们最终会进化成超级智能。其实在某些特定领域里它们已经是了,在那些领域里它们的能力已经远远超过了人类的大脑所能达到的程度。不过虽然它们已经是超级智能了,但还不是超级意识体。所以你看出来了,我是把智能和意识跟直觉分开考虑的。我觉得智能这东西已经存在了几十年了,你也知道,随着云端计算能力成本的日益降低,以及移动设备带来的日益强大的同云端连接的能力,我觉得这种“智能”会变得越来越无处不在,与我们的生活产生千丝万缕的联系。我们工作、生活、娱乐的方式都会因为我们身边的这些智能而改变。其实我的看法是这样:传统的“智人”这个种族(指人类,译者注)马上要迎来实质性的消亡了,我把即将诞生的我们的新种族称作“数人”,因为那时我们周围的数码智能设备将能增强我们各方面的能力。
B:你觉得AGI(Artificial General Intelligence)——通用人工智能是有可能实现的吗?
M:我觉得是能实现的,但是我们可能还要等40-50年才能造出这样的东西来。其实,我们或多或少已经见到了AGI的一部分,谷歌的人工智能,你可以把它看成一个类似巨型大脑的AGI的初级状态,而IBM的Watson也可以被看做是特定领域的“AGI”的初级阶段。但是如果你说要创造一个能覆盖人类所知的所有领域的知识、以及人类的所有追求的真正的AGI,我看过一个研究,说即使你去问那些最顶尖的人工智能科学家,得到的回答基本平均都会说我们在2050到2060年左右才能实现AGI。实际上,我觉得AI最让人兴奋的地方不是AGI,而是ASI,特定领域的人工智能(Artificial Specific Intelligence)。
B:为什么?
M:我有点觉得,AI还有很长的路要走。在我带领建造IBM Watson的时候我得到了几个很大的启示。首先,如果只是想驱动人类的进步或者改革商业模式,你其实不需要AGI就能做到。对特定目标消费者群体的市场,或者工业制造中特定的环节来说,只需要一点点AI就能造成指数级的巨大影响。我得到的第二个启示是,对AI这样的机器智能来说,最值得关注的部分不是问机器什么问题,而是让机器告诉你该问什么问题。你知道,世界上的信息有三种:你知道的,你知道你不知道的,和你根本不知道你不知道的。而机器智能最有意思的部分就是它能聚焦于之前提到的第三种信息然后在适当的时候拍拍你的肩膀跟你说,嘿,你是不是该去注意一下那里?
B:我并不是想要纠结于概念或者干嘛的,但是你能给我们解释一下机器智能、人工智能和认知计算之间有什么区别吗?
M:没问题。人工智能是一种“超类”(Uber Category,集合所有类型的一种类型,译者注)的概念,打个比方的话,我们说“人工智能”的时候大概相当于在说计算机领域的“软件”这个词,这是一个非常宽广的定义,包括了很多种技术和技巧:比如说机器学习是其中一种,计算机视觉又是一种,认知计算又是一种。还有很多很多种AI。所以,人工智能是一个最综合的概念,而在这个概念之下,机器智能是AI的一种应用,意味着机器可以开始通过自我学习让自己变得更聪明。它可能是一个恒温调节器,可能是一个信号灯或者是一个移动应用。所有这些东西都能变得更聪明。认知计算则是AI模拟人脑理解、推理、决策和学习的一种特定的方法。
B:最近,斯蒂芬·霍金提到了AGI可能是个非常现实的威胁。Elon Musk也表达了类似的观点,说我们可能只是一个超级智能的加载器,而超级智能就是进化的下一个结果。比尔·盖茨对一个AGI可能会做的事情感到很担忧。我在这想问两个问题,一是:你觉得为什么这么多聪明的人都会担忧它,二是:你同意他们的看法吗?
M:要说担心,我确实是有点担心的。但是我也觉得从某些方面来说,这些观点有点过度忧虑了。比如说,有人说机器人会成为人类的统治者什么的。
现在我们在某种程度上来说实际上已经将自己的生命交给了机器掌管。现在有数百万人每天让电脑控制我们飞机的降落,并且看起来还对此很满意。当我们对机器的信任越来越多,这种情况只会变得越来越普遍。机器人操作的眼部和血管手术是另一个比较好的例子。
从另一方面来说,我们对我们大脑的运作原理还有很多不清楚的地方,想要在机器上复刻这种进程也是极其困难的。比如我们对我们意识和本能的研究中还有许多问题没有搞清楚。从这个方面来说,我们离需要担心一种新的“机器人种族”的出现还有很长一段距离。
不过可以肯定的是我们作为一个种族要将这些强大的科技为了改善社会的状况而投入应用,需要制定一些原则和管制性的措施。为了防止已经出现或者能预见到的AI带来的灾难。我现在也在同产业界和一些AI的领袖人物讨论一些关于AI的伦理和道德责任的问题。
B:你相信计算机将会拥有意识吗?
M:我相信,但也不相信。好吧,我相信,但是其实这取决于你怎么定义意识。关于意识,有两个问题。一个是现在我们并没有一个能探测到意识的东西。所以我们其实没有一个标准能定义对于一个特定的人来说,什么程度才能说他是有意识的。现在有一些基于解剖学的模型用于让医生明白你是否处于昏迷状态,或者用于检测人的心智是否正常。但是现在没有一种合适的能够持续探测意识的,能让我们用来测量人或者电脑有没有意识的探测器。所以你很难明白电脑是不是真的有了意识。
第二个问题是适用性。因为人类的意识在不同的时候会发生变化,比如说。电脑如何知道为什么、以及什么时候自己感觉到的一个年轻的妻子失去丈夫的痛苦会对自己有意义?或者电脑能不能感觉到在海滩上玩耍的孩子的快乐?或者能不能理解为什么人们会为了救一个孩子而冲向一列行驶中的火车?这些东西都不太可能会是人类在想要给计算机建立智能的时候会考虑的东西,可它们也是一种智能,所以智能这个东西本身是很难给出精确定义的。你可以说计算机有一天可能可以自我感知,但是我觉得除非我们发明了一种意识探测器,否则我们很难正式回答计算机是否真的有了意识这个问题。
B:你怎么看待“中文房间问题”?这个问题表示计算机永远不可能拥有真正的智能。
M:我想如果你假定计算机都是用冯诺依曼架构建立起来的话,这个理论确实很有道理。在目前的计算机架构下,你提到的“中文房间”的问题是确实存在的。你可以说计算机只是把所有东西放在一起分析而已。不过当你把目光放到量子计算机上(或者可能出现的什么新型的计算机上)时,情况可能就不一样了。如果你问现在的计算机1加1等于多少。它会告诉你是2。而如果你问一台量子计算机1+1等于几,它不仅会算1+1=几,还会考虑到所有的可能性。有很多研究都推测,人类的思维就是一台量子机器的产物,也就是说我们将事物联系起来的方式可能跟逻辑没有任何关系。有大量专家认为人类的思维活动方式不像传统计算机那样,而更像是一台量子计算机。所以,如果按量子计算机这个方向来考虑的话,我可以说:“AGI是有可能的”。
via gigaom.com
雷峰网原创文章,未经授权禁止转载。详情见转载须知。