1
本文作者: 杨波 | 2016-08-22 12:00 |
雷锋网按:本文作者 Adriana Hamacher,来源robohub,由雷锋网独家编译,未经许可拒绝转载!
一项最新的研究表明,能表达自己并与人沟通交流的助手型机器人比能与人协作的机器人更能赢取人们的信任感,即使它们会犯错。另外,在使用人形机器人的过程中,有一个负面影响——为了不伤害机器人的感情,用户或许会对它们撒谎。
以上是笔者攻读伦敦大学学院(UCL)人机交互硕士学位时所做研究的主要发现。这项研究的目的是设计一个人类可以信赖的机器人助手。这个月末,笔者将在IEEE国际机器人与人类的互动传播国际研讨会(RO-MAN)上发表这项研究结果。
笔者的导师有两位,一位是UCL的Nadia Berthouze 教授,另一位是来自布里斯托大学的Kerstin Eder教授。在他们的指导下,笔者设计了一个人形辅助机器人实验,在实验过程中,机器人能帮助用户摊鸡蛋饼。具体而言,它能递鸡蛋(塑料制成)、盐和油,然后在打碎一个蛋后做出补救措施。实验的目的是为了看看机器人如何在犯错后,就它所犯的错误与用户进行有效沟通,然后重新获得用户的信任。
实验结果让人非常吃惊,比起做事高效、少犯错的机器人,大多数用户更喜欢能够与人沟通交流的机器人,尽管它们完成任务的时间要长50%。用户们会对能沟通交流的机器人的道歉做出很好的反应,尤其是当他们露出了忧伤的神情时——这表明它们知道自己犯了错。
在实验的最后,笔者的编程是机器人询问用户是否会让它当厨房助手,用户只能答复“会”或“不会”,并且不能解释自己为什么这样回答。很多用户不乐意回答这个问题,也有些人表现得很局促。有一个用户回忆道,当他回答“不会”的时候,机器人看起来很忧伤——尽管编程中并没有这么设计。有人说这是情感诈骗,还有人甚至对机器人说谎。
人们这样或那样的反应表明,看到了机器人打碎鸡蛋后表现出的像人类一样的忧伤情绪后,很多用户已经可以预见在他们回答“不会”后机器人脸上的表情了——所以他们犹豫不决,不愿意说“不会”;他们甚至担心,机器人会不会像人类一样痛苦。
这项研究强调了包括后悔情绪在内的机器人拟人因素,它们能够有效地消除不满情绪,但是我们必须要小心翼翼地识别我们想要特别关注并复制的特征。如果没有了基本原则,我们可能会设计出有着各种不同性格的机器人。
作为布里斯托大学机器人实验室的机器人安全性检测研究项目的带头人,Kerstin Eder教授曾说过,“相信我们的机器人朋友是成功的人机交互的基础。这项研究让我们对与机器人的交流和情感表达有了更深层的了解,这让我们可以减轻合作型机器人无法预测的行为可能带来的影响。在对这些人为因素的反复检验和确认后,工程师们设计的机器人助手是值得人们信赖的。”
笔者的这项研究与英国工程与自然科学研究理事会出资的项目“可信的机器人助手”项目是一体的。“可信的机器人助手”项目运用了新一代检验和确认技术来确认机器人的安全性和可靠性——这将在未来极大地提高我们的生活质量。
via robohub
雷峰网原创文章,未经授权禁止转载。详情见转载须知。