您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
国际 正文
发私信给天诺
发送

0

谷歌前主席埃里克•施密特:霍金和马斯克对AI的恐惧纯粹多余

本文作者: 天诺 2016-06-11 16:45
导语:​谷歌执行主席埃里克•施密特对知名科学家史蒂芬•霍金和“钢铁侠”亿万富豪埃隆•马斯克对人工智能未来的看法提出了质疑。

谷歌前主席埃里克•施密特:霍金和马斯克对AI的恐惧纯粹多余

谷歌执行主席埃里克•施密特对知名科学家史蒂芬•霍金和“钢铁侠”亿万富豪埃隆•马斯克对人工智能未来的看法提出了质疑。

2014年,霍金在接受英国BBC采访时表示,人工智能能够终结人类,而就在同一年,马斯克也发推文说,自己阅读完了一本名叫《超级智能》(Superintelligence)的书之后,发现人工智能其实比核武器还要危险可怕。

上周四,施密特出席了在瑞典首都斯德哥尔摩举办的“Brilliant Minds”大会,阐述了自己对人工智能的看法。

作为回应,他说道:“对于史蒂芬•霍金来说,虽然他是个极具智慧的人,但他真的不是计算机科学家。埃隆•马斯克也是个杰出的创业者,但他算是个唯物论者,也不是计算机科学家。”

施密特还强调说,埃隆•马斯克投资了一家“十亿美元”独角兽级别的人工智能研究公司OpenAI,这家公司可以帮助提高人工智能的准确度。

对于有人提到人工超级智能是否会在不远的将来尝试毁灭人类的问题,施密特补充解释道:

“你刚刚描述的场景,是计算机已经变得足够智能,他们可能因为某些bug导致了机器智能不断进化,继而在某个时点产生了摧毁我们人类的想法。而我对你提出的问题是:你认为我们人类不会注意到这个问题,并尝试关闭计算机吗?未来,我们人类可能和计算机展开一场竞赛,一边是人类尝试关闭计算机,另一边则是智能计算机尝试把人工智能转移到其他计算机设备上。如果人类毁灭,意味着最后计算机赢得了这场竞赛,最终,我们没能把计算机关闭掉。但我告诉你,这是电影场景,就目前地球上的真实状况是,根本不支持上面描述的那种场景发生。”

之前,位于伦敦的谷歌旗下DeepMind实验室透露,他们已经开发了一款“人工智能死亡开关”,可以确保人类在最后时刻有能力对机器进行控制。

VIA BI

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说