今天小编分享的互联网经验:腾讯混元发布并开源图生视频模型,欢迎阅读。
猎云网从腾讯混元微信公众号获悉,腾讯混元发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及 2K 高质量视频。
基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成 5 秒的短视频,还能自动配上背景音效。此外,上传一张人物图片,并输入希望 " 对口型 " 的文字或音频,图片中的人物即可 " 说话 " 或 " 唱歌 ";使用 " 动作驱动 " 能力,还能一键生成同款跳舞视频。
目前用户通过混元 AI 视频官网即可体验,企业和开发者可在腾讯云申请使用 API 接口使用。此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持 130 亿,模型适用于多种类型的角色和场景,包括写实视频制作、动漫角色甚至 CGI 角色制作的生成。
混元视频生成模型开源以来,一直保持较高的热度,去年 12 月登顶 huggingface 全站趋榜第一,目前 Github 平台上 Star 数超过 8.9K。多位开发者自发制作基于社区 Hunyuanvideo 的插件与衍生模型,积累超过 900 个衍生版本。更早开源的混元 DiT 文生图模型,在国内外衍生模型数量多达 1600 多个。
目前,混元开源系列模型已经完整覆盖文本、影像、视频和 3D 生成等多个模态,在 Github 累计获得超 2.3 万开发者关注和 star。