1
本文作者: 张驰 | 2017-04-03 15:37 |
过去十年中,人工智能取得了长足的进步,在图像和语音识别上已经在某种程度上超越了人类。而通过反馈奖励,单个的AI智能体也能在雅达利这样的视频游戏和围棋中战胜人类。
但人类真正的智能还包括了社会和集体智能,这也是实现通用智能必不可少的。就像虽然单个蚂蚁的智能有限,但通过协作它们能狩猎,能筑巢,能发动战争。毫无疑问,人工智能的下一个挑战就是让大规模的AI智能体学习人类水平的协作与竞争。
协作的一个例子就是星际这样的即时战略游戏。雷锋网消息,最近阿里巴巴与伦敦大学的研究人员们,就在一篇论文中展示了如何用星际争霸作为测试场景,让智能体协同工作,在多对一和多对多中打败敌人。
掩护攻击
这项研究主要关注星际中的微管理任务,每个玩家控制自己的单位,在不同的地形条件下歼灭对手。星际这样的游戏对计算机来说可能是最困难的,因为它们的复杂程度比围棋要高得多。这种大型多智能体系统学习面临的主要挑战是,参数空间会随着参与人数的增加而呈指数级增长。
研究人员让多智能体把星际中的战斗当作零和随机游戏来学习。为了形成可扩展且有效的通讯协议,研究者引入了一个多智能体双向协调网络BiCNet,智能体可以通过它来交流。另外,研究中还引入了动态分组和参数共享的概念,来解决扩展性问题。
边打边跑策略
BiCNet可以处理不同地形下的不同类型的战斗,且对战时双方都有不同数量的AI智能体。
分析显示,在没有任何诸如人类示范或标签数据的监督时,BiCNet也能学习各类协调策略,而这些策略与经验丰富的玩家所展现出来的很相似,比如在不引发冲突的情况下移动,边打边跑等基本策略,以及 掩护攻击与适度集中火力等高级技巧。
另外,BiCNet还可以轻易适应异构智能体任务。在实验中,研究者根据不同的场景对网络进行了评估,发现它表现优异,在大规模现实应用中有潜在价值。
研究中还发现,指定的奖励与学习策略之间存在很强的相关性。研究人员计划进一步研究这种关系,研究 策略如何在智能体网络中传递,以及是否会出现特定的语言。另外,双方都通过深度多智能体模型来操作时,纳什均衡的的探讨也很有意义。
论文阅读:https://arxiv.org/pdf/1703.10069.pdf
AI科技评论招业界记者啦!
在这里,你可以密切关注海外会议的大牛演讲;可以采访国内巨头实验室的技术专家;对人工智能的动态了如指掌;更能深入剖析AI前沿的技术与未来!
如果你:
*对人工智能有一定的兴趣或了解
* 求知欲强,具备强大的学习能力
* 有AI业界报道或者媒体经验优先
简历投递:
lizongren@leiphone.com
雷峰网版权文章,未经授权禁止转载。详情见转载须知。