您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
业界专题 正文
发私信给Travis
发送

2

人类级别的人工智能,2029年就能实现?

本文作者: Travis 2014-12-30 12:21
导语:当人工智能达到了与人类同样聪明的水准时,世界将会永远的改变。人类想要进一步进化可能需要几百甚至上千万年,而人工智能一旦达到了那样的水准,可能分分钟就能出现大的飞跃。虽然技术的变革本身是中性的,既不能说好也不能说不好,但人工智能对整个社会的影响将会十分强烈。

人类级别的人工智能,2029年就能实现?

当人工智能达到了与人类同样聪明的水准时,世界将会永远的改变。人类想要进一步进化可能需要几百甚至上千万年,而人工智能一旦达到了那样的水准,可能分分钟就能出现大的飞跃。

虽然技术的变革本身是中性的,既不能说好也不能说不好,但人工智能对整个社会的影响将会十分强烈。

一些未来主义者认为这些变化即将来临。

这其中也包括了Ray Kurzweil——这名作者写了五本关于人工智能方面的书,在这些书中包括了最近十分畅销的书《How to Create a Mind》,他还是未来主义机构奇点大学的创始人。他目前正在与Google展开合作,将更多的机器智能融入到他们的产品中。

人工智能就要来了

在一篇他写给《时代周刊》的文章中,Kurzweil表示,尽管大部分人在该领域的人都认为我们还需要几十年的时间才能创造出具有人类智力水平的人工智能,但是他则将日期提前至了2029年,距今只有不到15年的时间了。

Kurzweil提出,我们已经有了人类—机械的文明。我们已经在使用较低水平的人工智能技术来诊断疾病、提供教育,并开发新的技术。

人工智能技术的不断发展可以更好地给这个星球上每一个单独的个体提供信息和解决方案。

因此而害怕?

虽然Kurzweil认为人类水平的人工智能的发展可以安全的开发,毕竟到目前为止,这个更明智、更智慧的世界并没有因此而攻击我们,但并不是每个人都那么肯定。

  • 特斯拉 CEO Elon Musk在最近一次麻省理工学院的研讨会上表示,人工智能可能是人类最大的生存威胁,随着人工智能的发展,我们正在召唤恶魔。

  • 英国著名科学家斯蒂芬·霍金认为,人工智能的发展可能会给人类文明造成终结。

而且几十年来,不少科幻的文学作品和影视作品都描述了,一旦我们创造的东西比我们人类更聪明,我们将无法再控制这个世界上发生的事情了,因此人们对人工智能都感到了恐惧。

他们认为如果新的人工智能不喜欢我们人类,或者认为我们充满着威胁,它们可以决定是否要清除我们。当然,未来不一定就是这种情况,但是,如果它真的这么做了,我们人类可能也无法阻止它。

但Kurzweil认为,我们已经创造了有潜力摧毁人类文明的核能和生物技术,但如今我们不仅仍然还生活在这里,我们实际上是生活在人类历史上最和平的时期。

他认为,我们应该改变以往所认为的创造人工智能就有可能产生人类与邪恶的人工智能之间的战斗,我们应该把它看成是提升人类力量的一种方式,而这会以多种形式存在,不只是一个强大的实体。

机器人启示录

Kurzweil认为我们有时间来制定保障措施,并继续建立一个更加和平和进步型的社会,这可以让我们在开发人工智能时拥有相同的目标,而不是一个具有军国主义的人工智能。

我们可以做的最重要的事情来避免未来的危险,就是把重点放在我们自己的社会理想和人类进步上。

这和Elon Musk和霍金所认为的潜在世界末日的担忧相比,带给了我们更多的安慰。但即使是Kurzweil也表示,“技术一直是一把双刃剑,因为火使我们温暖,也因为火而烧毁了我们的村庄”。

我们不知道,Kurzweil预测的人类级别的人工智能在2029年是否会应验,想知道的是,到时候它能帮我们自动翻墙吗?

via businessinsider

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说