2
本文作者: 思睿 | 2015-02-26 12:05 |
去年,Google斥资约4亿美元投资了一家名不见经传的人工智能公司DeepMind。自那时起,DeepMind就开始“闭门造车”,对外界透露的信息已经相当守口如瓶了。但这里有一件事是我们肯定知道的:Google利用人工智能公司DeepMind AI的研究成果,构建了一套人工智能系统,能够学习并自主控制电子游戏,其不需要人指挥,接收简单指令后就可自主操作游戏。
根据今天在科学杂志《自然》上发表的新研究,Google的软件确实做的不错,在Atari 2600的一系列游戏的试玩中,Google AI在大多数时候的表现都非常接近人类的水平。
DeepMind软件使用两个AI技术,一个叫深度学习(Deep learning); 另一个叫做深度强化学习(Deep reinforcement learning)。深度学习技术已广泛应用于Google内部,以及诸如Facebook和微软等公司中。该技术可帮助用于感知——帮助Android理解你所说的内容,而Facebook则知道你刚刚上传的照片是谁。但是直到现在,都没有人像Google一样合并了深度学习和强化学习。
DeepMind的AI技术可让其从环境中学习,参照以前的处理方式并调整行为。与此前的人工智能系统相比,这是一次巨大飞跃。微软、IBM、Clarifai、MetaMind开发的主流图像识别系统一般需要人类监督,对图片进行注释,才能学习如何识别。
通过合并这两种技术,Google建立了一个通用的学习算法,该算法可适用于许多其他的任务。所以此技术一旦足够成熟,将会被Google用于其Google X实验室的其他项目以及自动驾驶技术和机器人项目。
Google的人工智能研究人员Itamar Arel也向人们证实了,随着该技术的不断改善和提高他们也将会把这项技术运用于Google的机器人。他认为,DeepMind的技术在18至24个月的时间内将可用于尝试在真实世界的机器人上做出试验。
言归正传,Google的人工智能软件在Atari 2600的测试中,在49个游戏中有29个游戏获得了75%的专业测试的成绩。
《自然》在文中并没有介绍任何新的技术突破,但它表明,随着DeepMind的技术更广泛的应用会发生什么。“我们将会利用更大的神经网络,我们也会想出更好的训练制度。”
DeepMind创始人Demis Hassabis不会告诉我们Google除了尝试在Atari游戏机上测试以外,是否还有测试其他的项目,但很明显,Atari 2600的工作仅仅是他们的一个开端。我们期待这项技术的后续研发进展,也会持续关注这个项目。
via wired
雷峰网原创文章,未经授权禁止转载。详情见转载须知。