1
本文作者: AI研习社-译站 | 2018-04-09 11:40 |
雷锋网按:这里是,雷锋字幕组编译的Two minutes paper专栏,每周带大家用碎片时间阅览前沿技术,了解AI领域的最新研究成果。
原标题 DeepMind's WaveNet, 1000 Times Faster | Two Minute Papers #232
翻译 | 李晶 霍雷刚 字幕 | 凡江 整理 | 吴璇 林尤添
▷每周一篇2分钟论文视频解读
本期2分钟论文Parallel WaveNet: Fast High-Fidelity Speech Synthesis,主要介绍了2017年最新版的WaveNet技术运用的训练方法 Probability Density Distillation ,由该技术虽然不是实时生成,却比实时生成快了20倍,产生的系统能够由Google助手在线部署,还能提供英语、日语语音多项服务。
WaveNet是2016年Google旗下DeepMind实验室推出的一种文本转语音算法。
一直以来,WaveNet的迭代方向都是生成“更好更逼真的语音音频波形”。近期,WaveNet出了新版本,DeepMind的研究员们算出了一个速度更快的WaveNet,比原始的快1000倍。
在旧的WaveNet算法情况下,程序员必须为每一秒连续声音片段,生成24000个样本。而且,这些新样本是一个一个生成的,让一个计算单元完成所有的工作,意味着同一时间内,其它的计算单元什么都不做,并不适合如今所需的大规模计算,也很难在实时生产环境中部署。
DeepMind的研究员们一直在想办法让这算法并行起来。他们找到的解决方式是——并行生成样本。因为语音不是类似于随机噪音的东西,当新样本高度依赖原有样本时,它是高度相关的,这样的话我们一次只能生成一个新样,那么我们如何并行地使用这些多个计算单元,并且创建新的波形呢?
具体算法还请观看视频解读及论文,论文原址 https://arxiv.org/abs/1711.10433
更多文章,关注雷锋网 雷锋网雷锋网
添加雷锋字幕组微信号(leiphonefansub)为好友
备注「我要加入」,To be a AI Volunteer !
雷峰网原创文章,未经授权禁止转载。详情见转载须知。