您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
专栏 正文
发私信给某小霞
发送

4

人工智能有多大可能学会“思考”?

本文作者: 某小霞 2015-06-09 13:28
导语:人工智能一直在进阶,它有没有可能终有一天也学会“思考”?

跨界装逼遭雷劈!

跨界装逼遭雷劈!

跨界装逼遭雷劈!

重要的事情说三遍,然后我这个中文系学生要开始对人工智能评头论足啦。

一两个月前我坚定地认为机器永远也无法拥有自主意识,所以人类不需要担心人工智能会反过来统治人类,甚至每次看到蛊惑“人工智能是恶魔”的人都要跳出来激烈地抗辩一番,恨不得直接骂人“傻X”。但最近看到一些高阶机器人的出现(麻省理工的猎豹和日本武士机器人,其实也不是很高阶,还是肌肉反应的阶段),更重要的是接触了一些新观点,之前的观念发生了一些变化。

在上海出差,采访完腾讯优图的Gary,和他以及另一个工程师吃饭的时候闲聊。

“即使我现在把一个小孩从生下来到10岁的所有的数据都给你,你有办法训练出一个跟他一样的系统来吗?做不到,所以现在也不是一个数据上的问题,而是我们本质上还不了解这个问题。”我引述出门问问CTO雷欣的观点。


“初生婴儿的大脑数据并不是空白,它早就携带了人类几百万年进化的信息。如果我们能把这些数据和达尔文进化论也变成训练数据的一部分,(复制一个一模一样的系统)是有可能的。”该工程师哥哥。


“你的意思是说,还是数据量和计算能力够不够的问题?”我。


“可以这么理解。”他。


“机器计算能力的增长速度是指数级的。”Gary。

DFRobot的叶琛博士也说过“唯一制约神经元网络发展的就是计算能力”,所以,其实是一个足够大的量变引起质变的问题?

引入一个横亘在人和机器之间的“邦加德问题”(可以这么理解:无法解决邦加德问题,就无法解决人工智能“自主思考”的问题):

苏联的数学家邦加德提出的邦加德问题是模式识别的一个重要概念。给你两组图形,每一组图形有三个图,找出左手边的6个样本图形所遵循的规律,并且确定右手边的6个样本图形不符合这个规律。

人工智能有多大可能学会“思考”?

人类的肉眼至少还可以判断左边三个点连起来都是三角形、都是钝角三角形之类,但机器表示很困惑:我应该看什么?一个对象或情景可以有不同的表示,具体表示什么和上下文情景有关,这是人类独具的“高层感知”能力,其最重要的特性之一就是它的极端灵活性(根据情景调整感知侧重点),比如媒体刊出某张赵薇和范冰冰微笑合影的图片,想表达的是两人“相逢一笑泯恩仇”,但是我们现在的机器看到这张照片作出什么判断呢?应该是“两人外貌相似度10%”、“左边年龄33,右边年龄31”之类吧。

高层感知,这也正是现代计算机技术尚不能完全实现的智能识别机制。

但邦加德问题是一个不能被解开的谜题吗?不一定,人脑作出“相逢一笑泯恩仇”判断过程是确凿无疑而不是随机、偶然的,确凿无疑的东西一定有规律可循。我们现在无法完全解释这种规矩,有可能是因为现有的数据搜集不够、技术水平无法将“高层感知”的过程分解成可以捕捉、识别的数据(深度学习的数据层数还不够),而并不是它本身不可以被认知。

解决这个问题会伴随着多得足以让人瞠目结舌的数据和计算,甚至多得可能引起计量单位界的“通货膨胀”,所以被认为遥遥无期,但霍金和Elon Musk,他们是离“计算”更近的人,应该是能更切身地感受到机器计算能力迭代的速度有多么惊人,所以会比一般人对人工智能警惕性更高。

所以,你说未来有一天,机器会不会完全GET到人脑的机能?未必不可能。但我还是对人类的未来表示乐观,如果万能的科学家能造出有自主意识的机器人(那就是造物主God先生了啊),应该也有办法提前造出约束它的规范和秩序吧。

雷峰网原创文章,未经授权禁止转载。详情见转载须知

人工智能有多大可能学会“思考”?

分享:
相关文章

知情人士

科技媒体人。
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说