2月7日,记者从字节跳动获悉,该公司采用的全新多模态视频生成模型OmniHuman即将上线即梦AI平台。据了解,用户仅需输入一张图片和一段音频,就可以生成一条生动的AI视频,这意味着AI短片的制作效率和质量有望得到大幅提升。
据介绍,视频生成模型OmniHuman为字节跳动自研的闭源模型,可支持肖像、半身以及全身等不同尺寸的图片输入,并可根据输入的音频,在视频中让人物生成与之匹配的动作,包括演讲、唱歌、乐器演奏以及移动。
尤其是,对于人物视频生成中常见的手势崩坏,该模型相比现有方法取得了显著的改善。此外,业内认为,该模型对动漫、3D卡通等非真人图片输入的支持效果也较为出色,生成的视频能保持特定风格和原有的运动模式。
图片来自即梦AI视频号内容截图
记者根据技术主页展示的演示效果来看,OmniHuman的生成效果已经具有较高的自然度。同时,为防止该项技术被不当利用,字节跳动技术团队在主页中特别标注称,OmniHuman将不会对外提供下载。
“该模型目前已具备较好的表现,但在生成影视真实级别的视频上仍存在一定的提升空间。”即梦AI相关负责人透露,由其支持的多模态视频生成功能会在即梦上以小范围内测的形式进行调优调整,并逐步开放。该负责人同时表示,即梦还会对这一功能设置严格的安全审核机制,并且对输出的视频标注水印以作提醒,从而确保AI发挥正面、积极的作用,助力视频创作者更好地实现想象力的表达。
来源:北京日报客户端
记者:鹿杨