您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
人工智能开发者 正文
发私信给吴彤
发送

0

最新研究:声音和词语在大脑中并行处理

本文作者: 吴彤 2021-08-26 09:55
导语:打开“神经行为”的黑箱子

受到生物神经网络的启发,目前深度神经网络已经被证实效果很好。如今,深度神经网络和深度学习在计算机视觉、语音识别和自然语言处理等许多重要问题上有着出色的表现。

神经网络本身是一般的函数逼近,这就是为什么它们几乎可以应用于任何从输入到输出空间复杂映射的机器学习问题。

然而深度神经网络更多的是关心所谓的端到端学习,内部发生什么事情它并不关心。这在认知科学里面叫“弱等价”,也就是说人和机器可以干同一件事,但是它们的内部过程并不是一样的。

或者和生物智能类似,深度神经网络要在增加内部的认知过程中,也应该和生物系统类似。此时,站在生物神经学的参照系下,或许能赋予AI语言处理更精细的洞察。

经过多年研究,神经科学家发现了人类大脑中处理语言声音的运行规则

8月18日,美国加州大学旧金山分校的研究人员在《细胞》杂志上发表论文称,听觉处理和语言处理是并行进行的。这与长期以来认为大脑先处理听觉信息,然后将其转化为语言信息的理论相矛盾。

最新研究表明:当含有语意的声音传到耳中,耳蜗将其转换成电信号,然后发送到位于颞叶的听觉皮层。

最新研究:声音和词语在大脑中并行处理

人脑左半球听觉皮层的位置和分区示意图

几十年来,科学家们一直认为,听觉皮层在处理语音时像工厂流水线一样有先后工序:首先,初级听觉皮层处理简单的声音信息,比如声音频率。然后,颞上回(superior temporal gyrus,STG)提取更重要的特征,如辅音和元音,将声音转换为有含义的单词。

但一直以来,这一理论缺乏直接证据的支持,因为它需要整个听觉皮层极高时空分辨率的详细神经生理学记录。这是一个挑战,原因是初级听觉皮层位于大脑额叶和颞叶的裂口深处。

美国加州大学旧金山分校神经科学家和神经外科医生Edward Chang说:"所以,我们进行了这项研究,希望找到声音等低级表征转化为词汇等高级表征的证据。"

最新研究:声音和词语在大脑中并行处理

Edward Chang

这项研究的开展离不开一些患者的支持。几年时间里,有9名患者参与了实验。因为需要切除脑部肿瘤或定位引发癫痫的病灶,这些患者接受了神经外科手术。与此同时,他们同意让医生在手术过程中将微电极阵列放置在他们的听觉皮层,收集神经信号,用于分析语言功能和定位癫痫,以及研究听觉皮层如何处理语音信息。

"这是我们第一次可以直接从大脑表面同时覆盖听觉皮层的所有区域,研究声音到字词的转换。"Chang教授说。相比过去只能在有限的几个点记录神经活动的电信号,无疑是巨大的进步。

接着,在实验中,研究人员开始向参与者播放词组和短句,试图寻找信息从初级听觉皮层流向颞上回的迹象。按照原来的假设,这两个脑区应该会先后被激活。

然而,事实并非如此。他们观察到,播放句子时,颞上回某些区域的反应速度与初级听觉皮层一样快,也就是说,这两个区域同时开始处理声音信息。

在另一项实验中,研究人员用微弱的电流刺激患者的听觉皮层。按照原来的假设,刺激初级听觉皮层,很可能会扭曲患者对言语的感知。然而,这些患者表示,尽管刺激引起了某些声音的幻听,但他们仍能清楚地听到并重复对他们播放的字词。

相反,当研究人员用电流刺激患者的颞上回,患者报告说他们能听到有人在讲话,"但分辨不出字词"。"事实上,有一名患者说,听起来就像单词的音节发生了互换。"Chang教授说道。

综合这些证据,研究小组认为,大脑听觉皮层对声音和语音的信息处理是并行的,而不是传统模型所认为的串行处理。

传统语音处理模型过于简化,甚至很可能是错误的。研究人员推测,颞上回可能独立于初级听觉皮层而发挥作用,而不是作为初级听觉皮层处理的下一步。

语言处理的并行性可能会给医生提供治疗诵读困难症等病症的新思路。患有这些疾病的儿童在识别语音方面存在困难。

"虽然这是向前迈出的重要一步,但我们还不了解这个平行听觉系统。这些发现表明,声音信息的传递可能与我们想象的非常不同。这无疑带来了更多问题。"Chang说。

站在生物神经学的参照系下,AI语言处理被赋予更精细的洞察

生物神经元构成一层一层的网络,一层一层进行特征提取,这是深度学习已经模拟的,其实大脑还有一个根本不同,我们识别物体的时候不是像深度学习网络一样由简单到复杂的特征提取,而是有多条通路:

我们看到一个物体的时候,第一步会快速的从皮层下通路,对物体的整体的性质进行识别,这些信息到了高级脑区,和记忆、先验知识等进行融合,先猜测出来是什么东西,通过神经反馈再和深度学习模拟的那个慢速的腹侧通路进行动态交互,这个过程可能会经过几个回合,整个识别的过程都是输入和大脑内部的先验知识不断的相互比较印证的过程,而这个过程在目前是深度学习没有包含的,也是图像理解这个数学上不适定问题(ill-posed problem)的一个解决方案。

那为什么我们好像深度学习网络用的很好,我们没有包含动态的过程,由粗到细、由global到local的过程,也能做的挺好。或许是因为现在我们的任务太简单了,如果只是做静态图像的识别根本不需要这个,但是如果真的要做一个能够与环境动态交互、很自主的机器人,这样的计算需求就会出现,那个时候就需要动态交互的过程了。

而深度学习一般认为是黑盒子,每个人的模型得到大致相同的结果,但是也不完全一样,那么这里的一致性和不一致性到底体现在哪里。如果生物神经在语言处理方面搞的很清楚的话,实际上对深度神经网络的架构也会很有帮助。

资料来源:

https://mp.weixin.qq.com/s/agDJMUtJZf7XccdR6yzqlQ

https://mp.weixin.qq.com/s/h5C9s7nqsGBUTfITnjG8pQ

雷锋网雷锋网雷锋网

雷峰网原创文章,未经授权禁止转载。详情见转载须知

最新研究:声音和词语在大脑中并行处理

分享:
相关文章

作者

关注AI、自动驾驶
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说