0
本文作者: 杨波 | 2016-08-30 18:16 |
新智造按:本文作者Jeffrey Norris ,来源UC Berkeley,由新智造独家编译,未经许可拒绝转载!
当我们所处的世界自动化程度越来越高时,如何让人工智能和机器人与我们和谐共处?加州大学伯克利分校的答案是:他们将于本周成立一家新的人工智能中心,探索如何让机器人与人类和谐共处。据悉,该中心主任将由AI专家Stuart Russell担任,Russell是伯克利的电机工程和电脑科学教授,他拥有Smith-Zadeh工程学讲座教授头衔,也是《人工智能:一种现代的方法》的合作者。这本书是人工智能领域的标杆,它提倡将人类的价值观融入AI设计中去。
据了解,这一中心高手如云,科研实力雄厚,其中包括来自伯克利分校的Pieter Abbeel , Anca Dragan和认知科学家Tom Griffiths,康奈尔大学的计算机科学家Bart Selman 和Joseph Halpern,密歇根大学的AI专家Michael Wellman和Satinder Singh Baveja。Russell表示,未来希望有来自经济学、哲学和其他社会科学领域的专家加盟,而这个研究中心的主要目标是确保AI系统对使人类社会受益。另外,中心获得了来自Open Philanthropy Project的550万启动资金,同时还获得了Leverhulme Trust和 Future of Life Institute的研究赞助金。
Russel以专家的姿态,迅速瓦解了人们对科幻大片中有感知的、邪恶的机器人可能产生的威胁。他认为,我们现在在AI、机器人、控制理论和运筹研究领域研发的机器人,完全出自人类之手。如果你让家用机器人清理浴缸,它或许会像穿《戴帽子的猫》中的猫那样,不知道一件干净的白裙子的价值比干净的浴缸大,从而——用妈妈的白裙子去擦拭浴缸。也就是说,目前,AI的设计没有与人类的价值观达成一致。而这个研究中心会用最先进的AI系统,为数百亿人提供必要的服务。他还表示,“AI系统必须受人掌控,对行为要有明确的限制,尽管它们最终可能会拥有一些人类无法企及的能力。”
目前,Russell和其他专家正在研发的是逆向增强学习,在这个过程中机器人会通过观察人类的行为,学习人类的价值观。比如,通过观察人们早上起床的痛苦以及起床后费劲千辛万苦做一杯拿铁,机器人会认识到对人而言,清晨的一杯咖啡存在的意义。
“在算法中直接植入某些价值观是万万不可取的,”Russell说,“机器人要通过观察学习人类的价值观。除了观察外,阅读也是个重要的途径。提供给机器人的所有文字都是关于人类如何做事以及其他人的看法。”
然而,Russel和他的同事们都知道,在AI领域,他们依然任重道远。“人们有种各种不同的价值观,因此如果要将所有价值观都实现,是无法做到的,”他承认。“不同的价值观促使机器人尝试理解我们希望它们做的事,并学会在个体之间斡旋。”
另外,Russel最近写了篇文章,叫《它们会让我们成为更好的自己吗》。他于文中得出的结论是:“AI将与人类价值观达成一致,而这个过程会让我们对自己的所作所为产生更好认知。另外,我们或许应该认识到我们与来自其他文化背景的人们存在更多的相似之处。”
via UC Berkeley
新智造为雷锋网(搜索“雷锋网”公众号关注)旗下专注于机器人的公众号,我们关注机器人的现状与未来,以及与机器人结合的相关产业。感兴趣的朋友可添加微信号AIRobotics,或是直接扫描下方二维码进行关注!
雷峰网原创文章,未经授权禁止转载。详情见转载须知。