0
本文作者: nebula | 2024-06-28 18:17 |
沉睡2000多年的兵马俑与歌手董宝石 “跨时空同台”,用华阴老腔展现“大秦雄风”;从北宋“穿越”而来的苏轼,与歌手李玉刚共同演绎《水调歌头》……在阿里通义EMO技术的支持下,这些画面变为可能。6月28日,央视《2024中国·AI盛典》将为观众们展示一场融合中华文化与数字科技的视听盛宴。
(依托阿里通义EMO技术,沉睡2000多年的AI兵马俑用华阴老腔展现“大秦雄风”)
仅仅一张照片、一个音频就可以让静止的形象,伴随着音频的跌宕起伏、抑扬顿挫,演绎得惟妙惟肖。秦始皇帝陵博物院院长李岗表示,“我们希望随着AI技术的不断进步,未来的文化遗产保护和传播会更加多元化、智能化,更好地弘扬中华文化,讲述中国故事。”
打开通义APP,在主对话框搜索“EMO”,或找到“全民舞台”频道点击产品页面“全民唱演”,即可体验同款“兵马俑”同唱《从军行》。此外,用户还可以自定义唱演,选择喜欢的歌曲、热梗、表情包,上传肖像照片,EMO随即就能合成视频。
(打开通义APP,即可体验央视《2024中国·AI盛典》同款“兵马俑”,同唱《从军行》)
据了解,EMO是通义实验室研发的AI模型,其背后的肖像说话(Talking Head)技术是当前大热的AIGC领域。EMO之前的Talking Head技术都需针对人脸、人头或者身体部分做3D建模,通义实验室在业界率先提出了弱控制设计,无需建模就可驱动肖像开口说话,不仅降低视频生成成本,还大幅提升了视频生成质量。
EMO模型在海量的人物讲话视频上进行了训练,不仅能够找到音频中具体发音与人像口型的匹配关系,更重要的是能发现音频中的语气特征与人物表情的关联性,将音频暗含的情绪色彩反映到了人物微表情上。可以说,EMO在训练中慢慢学习并编码了人类表达情绪的能力。
通义实验室应用视觉团队负责人薄列峰表示,“未来我们希望用AI的力量将中国传统文化展现得更丰富,更加‘通情,达意’,让收藏在博物馆里的文物、陈列在广阔大地上的遗产、书写在古籍里的文字都‘活’起来。”
2月底,通义实验室公布相关论文,EMO随之成为继SORA之后最受关注的AI模型之一。EMO项目页此前已在Github展示,收获Stars数迅速超6600。仅仅两个月后,通义实验室就将EMO产品化,正式在通义APP推出,所有人都可免费使用,让照片开口唱歌、说段子。未来,EMO技术有望应用于数字人、数字教育、影视制作、虚拟陪伴、电商直播等场景。
雷峰网(公众号:雷峰网)
雷峰网版权文章,未经授权禁止转载。详情见转载须知。