0
本文作者: 天诺 | 2016-06-11 16:45 |
谷歌执行主席埃里克•施密特对知名科学家史蒂芬•霍金和“钢铁侠”亿万富豪埃隆•马斯克对人工智能未来的看法提出了质疑。
2014年,霍金在接受英国BBC采访时表示,人工智能能够终结人类,而就在同一年,马斯克也发推文说,自己阅读完了一本名叫《超级智能》(Superintelligence)的书之后,发现人工智能其实比核武器还要危险可怕。
上周四,施密特出席了在瑞典首都斯德哥尔摩举办的“Brilliant Minds”大会,阐述了自己对人工智能的看法。
作为回应,他说道:“对于史蒂芬•霍金来说,虽然他是个极具智慧的人,但他真的不是计算机科学家。埃隆•马斯克也是个杰出的创业者,但他算是个唯物论者,也不是计算机科学家。”
施密特还强调说,埃隆•马斯克投资了一家“十亿美元”独角兽级别的人工智能研究公司OpenAI,这家公司可以帮助提高人工智能的准确度。
对于有人提到人工超级智能是否会在不远的将来尝试毁灭人类的问题,施密特补充解释道:
“你刚刚描述的场景,是计算机已经变得足够智能,他们可能因为某些bug导致了机器智能不断进化,继而在某个时点产生了摧毁我们人类的想法。而我对你提出的问题是:你认为我们人类不会注意到这个问题,并尝试关闭计算机吗?未来,我们人类可能和计算机展开一场竞赛,一边是人类尝试关闭计算机,另一边则是智能计算机尝试把人工智能转移到其他计算机设备上。如果人类毁灭,意味着最后计算机赢得了这场竞赛,最终,我们没能把计算机关闭掉。但我告诉你,这是电影场景,就目前地球上的真实状况是,根本不支持上面描述的那种场景发生。”
之前,位于伦敦的谷歌旗下DeepMind实验室透露,他们已经开发了一款“人工智能死亡开关”,可以确保人类在最后时刻有能力对机器进行控制。
VIA BI
雷峰网原创文章,未经授权禁止转载。详情见转载须知。