0
本文作者: siskin15 | 2014-12-04 23:53 |
试想一下,在某个不远的未来,你在凌晨3点进入你的座驾,但车子并未启动,你的车子开始探测一些东西。它问你现在感觉怎么样?(挺好)。你晚餐吃的什么?(炒面)。阿森纳晚上赢没赢球?(我渴了)。通过你的这些回答,你的车子甚至都不用再往下问了,因为它已经知道你喝醉了,最终它会提议给你叫辆出租车。
除了把你扔在出租车后座以外,你的车子会为你做任何事。当然,还有件事它不会做,那就是让你把它开回家。你能拥有这样一部车,还得感谢酒精语言资料库(ALC)。与酒驾司机在肇事被抓现行后才进行测试不同,研究员如今则提出了一种更实用的酒驾预防方法:车辆本身就能听司机说话,从而检测司机是否醉酒,阻止车辆启动。但是要想训练汽车做这样的事,你首先需要一个酒话音频库。
2007年至2009年间,一些语言研究者让162名男女研究对象喝醉。其中一些人只有些许醉意,其他人醉得说话不清,突然就想抱着吉他唱歌,还有更糟的会想坐到方向盘后面。研究员让每个人都坐在一辆轿车的乘座上,然后开始录制他们醉酒时说的话。
做这些的意义在于,建立一个从未有人曾建立过的数据库:首个酒话公共音频库,即ALC。它实际就是一个为研究所用的会话数据库,只需1200美元的包邮价,你也可以拥有一个DVD版本,里面有约30GB的录音资料。
计算机科学助理教授Andrew Rosenberg说:在高危情况下,需要确保工作人员是在非酒醉或非疲劳状态,司机自然在内,还有飞行员、警察以及消防队员,任何会让你说,‘你不该在醉酒时做现在正做的事’的人都算。”
2011年,Rosenberg与哥伦比亚大学的研究者们以ALC数据为基础合写了一篇论文,希望从酒驾者中分离出清醒说话者。Rosenberg说:“问题在于,我们是否可以做出一种机器,它拥有的算法能(至少近似地)了解人类在做什么?”
醉酒者讲的话是什么样呢?当人喝醉时,会口吃结语,自我纠正;声音会变高,说的话也会开始含糊。Rosenberg及其团队发现,对待醉酒判断可以像对待口音判断那样进行区别,你可以训练计算机来识别醉酒状态和含糊其辞之处,就像通过口音来判断这个人是来自哪里。这种方法虽然并不完美,但无论如何,它很新颖,也很奏效。
汽车制造商自然会对这种研究感兴趣,Gartner技术研究公司的汽车分析师Thilo Koslowski就期望车辆能在未来两年内具有自我意识。Koslowski说:“企业开始考虑能用哪种传感器来检测驾驶员状态。”其中虽然包括音频传感器,但多数传感器都是测量视觉、触觉、气味以及行为输入的。
但酒驾者的手脱离方向盘会有多么频繁?他们会在不看路的情况下盲目乱开吗?他们闻起来是否会酒气熏天?Koslowski对此表示:“判断酒驾与否,需要综合考量所有不同事情,要观察分析,从而决定驾驶员所处的状态。”
2007年,尼桑就揭示了一款装有酒驾预防系统的概念车,它可以通过变速器换挡手柄上的气味,和汗液传感器检测出酒精剂量,同时摄像头也会监视驾驶员的眼睛,从而判别睡意迹象,另外一台车载电脑也会监测飘忽运动和偏离车道的驾驶行为。
通用汽车所在的行业联盟,也在研究以呼吸和触摸为基础的系统,如何帮助识别酒驾者,但对语音识别研究成果不熟悉。值得一提的是,世界大牌汽车制造商基本都在这个联盟。
现在,该项技术距离脱离研发还有很长一段路要走。其中当然也有一些隐私问题需要考虑,正如Koslowski指出的:“自我意识汽车这么监视你真的好吗?这正是很多汽车制造商仍对此有顾虑的地方,他们不想做过头,因为人们对汽车的看法是,做任何他们想做的事。”
这项技术也必须变得更好。据Rosenberg所知,没人能单以语音为基础检测出某人醉酒水平。因为,声音识别是非常难的,即使语音清晰也是如此。在研究中,醉酒检测算法当时的精确率只有73%。Rosenberg表示:“这意味着,你想要开车,3次里就会有1次被我们判定为酒驾,这并不好。”
via fc
雷峰网原创文章,未经授权禁止转载。详情见转载须知。