0
在娱乐圈,汪峰的头条经常被人抢;而在科技圈,想要上头条,不仅容易被人抢,更容易被“机器人”抢。打开网站或App翻翻,Echo、Siri、小冰、度秘随处可见,“自然语言交互”简直成了人工智能界的网红。
表面上看来,和自然语言交互的火热相比,情感交互还远远谈不上被重视。而实际上,情感计算相关的技术和应用已经投入市场。
比如雷锋网此前报道过的Affectiva,致力于研究情感识别,并已应用于广告、零售等行业,分析受众喜好;软银机器人公司推出的情感陪护机器人Pepper,通过分析表情识别情感,提供智能陪伴服务;被Nielson收购的神经科学公司Innerscope则通过检测观众表情,来预测一部电影能否火爆。
情感交互的研究和应用多了起来,但全球范围内其实还没有统一的“话语体系”,如何定义笑?如何定义哭?各家自圆其说。哭笑等表情对人来说,判定非常容易,但对计算机而言,细微差别就可能要让它“哭笑不得”了。
雷锋网近日得知,中科院软件所、中国电子技术标准化研究院、小i机器人三家单位在ISO/IEC罗马会议、柏林会议上提出的“信息技术—情感计算用户界面—框架”(Information technology — affective computing user interface — framework)通过国际专家投票,获得正式立项。这也是人机交互界面领域,唯一一个将由中国主导建立的国际标准。
据中科院软件所负责此项标准提案的王宏安教授介绍说,这意味着在未来三年内,将会由中国主导,由通过这项提案的加拿大、日本、韩国、英国、法国、瑞典等派驻代表参与,共同制定该框架标准。
中科院软件所王宏安教授
说起来简单,做起来难。雷锋网了解到,这个“情感计算用户界面”主要包括四个部分,分别是:
情感描述方式
现有的情感描述方式主要分为两种,一个是离散描述,一个是连续描述。在计算机领域广为人知的离散描述是美国心理学家Ekman提出的6大基本情感,分别是Joy、Sadness、Anger、Surprise、Fear和Disgust。连续描述则认为,人类的情感不是独立的,而是连续可转变的,类似RGB调色板。
情感交互过程处理
情感交互过程的处理包括情感数据的获取和情感变化的跟踪。情感数据来源很多,诸如表情、语音、动作、文本、符号以及脑电、心电、肌肉电等生理信号。而人的情感是实时变化的,需要从变化的开始、演化、结束整个过程进行跟踪。
情感交互意图理解
情感用户界面的核心就是需要计算机能够有理解用户意图的能力,甚至挖掘用户的隐藏需求和意图。
情感反馈表达
计算机系统根据对用户情感交互意图的理解,自动针对用户当前的状态提供智能的情感反馈表达,不仅能够理解用户的“命令”,还能有感情地进行交流。
研究团队未来将针对上述四点,一方面整理出框架,另一方面提供一套规范性的“话语”,便于全球的研究者们彼此沟通,在这套“标准话语”下展开研究,共同推进情感计算的研究。
王教授还解释说,情感识别涉及很多细微之处,先把稳定一致的部分描述出来,大方向定下来,细微的差别留着,标准本身是一个过程,现在制定的标准可能管十年,未来完善修改可能又要十年,跟技术的发展是相关的,并非一成不变。
考虑到情感识别还处于早期,当被问到现在制定标准是否为时过早时,作为提案联合发起方的小i机器人总裁朱频频博士说:“当时在罗马会议提交草案时,也有评委质疑,建立这样的标准是不是太早了,但我们的观点是,标准的制定需要三年,而IT技术发展非常快,从现在往后看三年,谁也不知道什么样。人工智能不确定因素太多,如果在开始的时候,不制定一个明确的准则规范,形成了各自的体系,再想制定标准很难,也没有意义。”
雷峰网原创文章,未经授权禁止转载。详情见转载须知。