0
AI 生成视频的赛道,要变天了。
2月,OpenAI 的视频生成模型 Sora 横空出世,让不少国内视频赛道和 AI 赛道的厂商都没能过个好年。外界看来,海外的技术已然如此成熟,而国内却似乎没人能够与其一竞高下。
而事实上,中国厂商在音视频生成上的技术积累一直没有停止过。
4月18日,2024中国生成式AI大会在京举办,AIGC软件A股上市公司万兴科技(300624.SZ)受邀参会,并重磅宣布旗下音视频多媒体大模型万兴“天幕”将于4月28日正式公测,以通过广泛的用户参与和反馈,进一步优化“天幕”性能和体验,同时探索多媒体大模型技术在不同领域的应用潜力。
当前,万兴“天幕”大模型已通过中央网信办备案,能力方面已涵盖文生视频、视频生视频、文生音乐、视频配乐、文生音效、文生图、图生图等原子能力,相关能力已在万兴科技旗下产品规模化商用。其中文生视频能力上,已实现不同风格、丰富场景及主题的连贯性,且一键生成时长支持60秒+。
万兴天幕大模型4月28日公测
作为国内首个音视频多媒体大模型,万兴“天幕”聚焦数字创意垂类创作场景,基于15亿用户行为及百亿本土化高质量音视频数据沉淀,以音视频生成式AI技术为基础,打造基于大模型架构的AIGC应用基础底座,全链路赋能全球创作者,推进大模型进入2.0时代。
未来,万兴“天幕”近百项音视频原子能力将全面集成到公司矩阵产品中落地应用。公测期间,公司将重点开启视频创意、音频创意、图像创意等领域多个场景下的应用测试,如文生视频、视频生视频、文生音乐、文生音效等。其中,视频生视频功能支持一键视频风格转换,让画面更出彩;文生音乐、文生音效进一步升级对文本的深度理解,以及基于内容理解生成对应风格音频的多维整合能力,支持输入文本生成拟真声音及倍速音效。
万兴“天幕”文生视频《男孩的探险之行》画面截图
大会上,万兴科技副总裁朱伟同阿里、腾讯、英伟达等企业嘉宾,以及北大、清华等学术嘉宾在内的超50位重量级产学研投界代表同台论道,并带来《音视频多媒体大模型市场洞察与落地实践》主题演讲。
过去的2023年,大模型作为基础设施赋能千行百业,呈现井喷式增长,给行业带来了超乎寻常的改变。据不完全统计,2023年国内公开发布的大模型产品已达238+个,大模型产业竞争真正进入“百模大战”阶段。其中,绝大多数产品均以自然语言对话为主要功能,提供聊天对话、创意写作、代码生成等服务。
朱伟指出,当前大模型在文本和图像领域已实现生产力商用,但在音视频领域的应用还存在数据集缺失、视频内容结构及层级复杂、算力成本高等挑战,其成熟应用尚需周期。根据硅谷知名风投公司a16z调研结果显示,在2023年以前,市面上尚不存在公开的视频模型,但2023一年内诞生的模型就达数十个,全球用户数量超过百万级。目前,市场上已投入使用并取得一定进展的AI视频模型数量达到21个。
朱伟同时表示,当前AI视频模型尚不成熟,但伴随行业发展,大模型正在从1.0图文时代加速进入以音视频多媒体为载体的2.0时代,2024年将迎来AI视频年,AI视频大有可为。目前万兴科技深耕创意软件20余年,在音视频数据、跨模态和多媒体技术上有丰富积淀,并对全球多媒体创作者有更为深刻的理解,现在的万兴“天幕”也许不尽完美,但正因为不完美,才更对未来无限憧憬,并愿为之不懈努力,相信公司会朝着新生代AIGC数字创意赋能者道路阔步前行。展望未来,万兴“天幕”将坚持内部应用、外部开放并行,向外部企业逐步开放API接口,期待更多行业伙伴加入,共筑音视频多媒体大模型开放生态,携手共赴AI大时代。
万兴科技副总裁朱伟作《音视频多媒体大模型市场洞察与落地实践》主题演讲
随着数字化转型的加速和AI技术的广泛应用,多媒体内容创作市场在快速增长。公开资料显示,目前,全世界有3.05亿视频创作者,43亿视频覆盖群体,每天200亿次以上的视频播放量,视频需求非常大。另据QYResearch最新研究显示,预计2029年全球专业音视频系统市场规模将达到3632.7亿美元,未来几年年复合增长率CAGR为5.0%。
推出万兴“天幕”的万兴科技是中国数字创意软件领域产品覆盖面广、营收体量大、全球化程度高的A股上市公司,也是国内AIGC行业龙头企业,业务覆盖200多个国家和地区,全球累计用户超15亿,月活近1亿,被视为“中国版Adobe”。
成立20年来,万兴科技一直紧跟技术浪潮,与时俱进洞察市场需求,针对性赋能不同阶段的内容创作。面向全新展开的AIGC时代,万兴科技锚定数字创意创作场景,已推出万兴爱画、万兴播爆、Wondershare Kwicut、Wondershare VirtuLook等AIGC创意新品;旗下万兴喵影、Wondershare PDFelement、万兴PDF、亿图图示、亿图脑图、墨刀等产品均已集成AIGC能力,并持续优化上新,用AI让世界更有创意。
雷峰网(公众号:雷峰网)
雷峰网版权文章,未经授权禁止转载。详情见转载须知。