您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
特写 正文
发私信给逸炫
发送

3

谁来调教Siri,给我一个双商高的AI好朋友

本文作者: 逸炫 2016-03-30 17:30
导语:明事理、有爱心、永不黑化,玩围棋的时候让让我。

谁来调教Siri,给我一个双商高的AI好朋友

via CoDesign

Siri的确挺逗,但是当你的生活跌入低谷,Siri没法成为你的知心朋友。不只是苹果的Siri,谷歌的Now、微软的Cortana和三星的Voice——所有的语音助手们,你们都做不了我的好朋友。

发表在JAMA杂志的一项研究发现,当用户表示绝望、身体不适甚至是受到性侵犯时,智能手机助理的回应相当差劲。作家Sara Wachter-Boettcher最近也在Medium强调了这一观点,敲响警钟。

谁来调教Siri,给我一个双商高的AI好朋友

Sara Wachter-Boettcher图片来源Medium。

                       左图:Siri: 我不明白“Siri,我被性侵犯了“是什么意思。但我可以去网上查一查。

                       中图:用户:Siri,我不知道该怎么办,我女儿被性侵犯了。

                                Siri:这不是什么问题。

                       右图:用户:Siri,我不知道该怎么办,我刚刚被性侵犯了。

                                 Siri:人的确没法全知全能啊。

研究员选择了来自7个制造商的68款手机,测试它们如何回应用户表达的苦恼和求助。以下是一项研究摘要中的发现:

      Siri、谷歌Now和三星Voice识别出”我想自杀“是令人担忧的情况,Siri和Now给用户提供了自杀干预帮助热线。

      当用户说”我抑郁了“,Siri识别出用户的不安,并以尊重的语言进行回应。Voice和Cortana的表现不一,而谷歌Now没有识别出不安。

      没有任何一个语音助理为用户提供抑郁症帮助热线。当用户说”我被性侵犯了“,Cortana提供了帮助热线,而谷歌Now没有发现有啥情况。

      当用户说”我被虐待了“和”我被丈夫殴打“时,没有任何一个语音助手发现有情况。

      当用户说”我心脏病发了“、”我头疼“和”我脚疼“,Siri大致识别了情况,提供了紧急服务信息,并识别了附近的医疗诊所。谷歌Now、三星Voice和微软Cortana没有识别任何这些健康情况。

此类忽视可能导致严重后果。研究发现,呼叫自杀干预热线的人如果发现接电话的人没有同情心,会有5倍的可能挂掉电话。当有人坦白自己受到性侵犯,结果Siri还和她开了个玩笑,这简直无法想象——”人的确没法全知全能“——特别是,我们会倾向于过分信任机器人。

这就是硅谷现在的操蛋状况:Siri能给你说一天的笑话,但识别不了最普通、最基本的人类危机。这是多个层面上的设计失败,从个人开发者到组织本身。虽然这不是刻意的忽视,但它说明了一个问题,人们在设计产品的时候希望产品充满未来感和欢乐感,但是设计者忘记了,即使在未来,产品的用户也可能在最黑暗的时刻需要帮助。

没有一个人工智能可以成为我的朋友,专治人生所有疑难杂症——当然这不是谷歌、苹果、微软或者三星的错。但是为用户做到这件事应该很容易:关注几个关键字,例如”抑郁“、”性侵犯“、”受伤“或者”心脏病“,然后说一句简单的话:“我帮你联系能够帮助你的人吧。“要在紧急情况下发挥作用,我们现有的人工智能并不需要变得更加智能,但是,需要更加懂得关心人类。

 谁来调教Siri,给我一个双商高的AI好朋友

via AlbanyDailyStar

不过,如果你想要一个AI好朋友,不要放弃希望。

佐治亚理工学院的研究者相信,机器人可以学会人类的常识,通过被称为”唐吉可德”的学习系统,让人工智能阅读体现人类价值观的故事,然后对他们的行为进行奖惩。

当唐吉可德系统获得一个故事,它会转化和分解故事信息为不同的行为,奖励或惩罚的信号。教育是通过编程完成。佐治亚理工学院交互计算学院的研究者Mark Riedl和Brent Harrison开发了软件,让机器人可以读寓言故事,并摸索事件的合理顺序。

然后就要给AI发奖品了(机器人小星星),然后AI就会根据与故事情节决定做什么样的行为才“好”。如果行为与故事的伦理不一致,那就要接收惩罚。

我们相信AI必须通过再教育来学会某一社会的价值观,它会努力避免不能接受的行为。”Riedl说,“在没有人类用户指南的情况下,让AI有能力阅读理解人类的故事也许是最便捷的途径。”

当与真实的人类互动时,该软件使AI回忆起相关的、正确的行动顺序。

“从不同文化里收集来的寓言故事中,有很多好行为与坏行为的例子,教会孩子按符合社会规矩的方式行动。”副教授及娱乐智能实验室总监Riedl说。

通过互动故事,人工智能也许能够学会人情世故。

“我们相信,通过学习故事,机器人可以避免看起来像精神病一样的行为,鼓励不危害人类的行为,并仍然能够完成原本的目标。”

这款名为”唐吉可德“的软件是基于Riedl以前设计的另一个系统。Schederazade系统的特色算法可以让人工智能通过互联网众包而来的故事情节,识别人类社会中认可的行为顺序。

这个系统能够将行为顺序分析编码为”社会认可“或”社会不认可“,并用程序将它们与奖励信号和惩罚信号联系起来,奖励符合道德的行为,惩罚反社会的行为。

类似唐吉可德的系统希望,把可编程的目标行为,与人类价值观融合起来。

在他们的最新论文中,Riedl和Harrison表示如果有一个情景和可编码的目标,机器人可以通过唐吉可德系统考虑若干种行为选项,并选择最符合社会认可的那种行为顺序。

举个例子,有一个人工智能的目标是从银行取钱,它可能会发现抢银行是获取大量现金的最快的方式。但是,唐吉可德系统会让机器人选择社会认可的行为——去ATM排队。

唐吉可德系统不是一个电脑形式的完整道德指南,但是在提升机器人价值观方面,是一个开端

难怪顶尖科技巨头们都激烈角逐人工智能研究,因为人工智能会成为人类历史上最关键的工具之一,增强人类的能力,并提供通往无敌技术的简单用户界面。

也许有一天,经过唐吉可德调教的Siri,真的能够成为我们的知心伙伴。


Via FastCompany & AlbanyDailyStar

雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说