今天小编分享的互联网经验:字节连发两款AI视频工具,一句话完成换脸、编辑,网友直呼Runway不香了!,欢迎阅读。
文|尚恩
编辑|邓咏仪
字节正在跑步 AI 化,产品侧刚刚宣布对外测试AI 对话产品豆包,又接连一口气在 Github 上发布两个 AI 视频项目。一个主多模态动画生成,另一个则专注文本导向的视频编辑。
目前在 Github 上,两个项目加起来已经拿到 1000+ 星。
来源:公开网络
不仅如此,还引来大批网友围观,有人就直接表示:" 一直想在 TikTok 火,有了 AI 这下可好办了 "!
来源:Dave Villalva 推特
目前,字节的这俩项目虽已上传 GitHub 和 arxiv,但还没有公开代码,所以想上手玩还得稍等等了。
对此就有不少网友已经等不及,在线求代码中…
来源:Don Jose Valle 推特
话不多说,来具体看看这俩 AI 视频生成项目的细节。
AI 捕捉运动信号,一键生成视频
MagicAvatar 由字节跳动开发,是一款主打多模态输入生成的多模态框架,可以将文本、视频和音频等不同输入方式转化为动作信号,从而生成和动画化一个虚拟人物。
具体来说,通过简单的文本提示就能创建虚拟人物,也可以根据源视频生成跟随给定动作生产,还能对特定主题的虚拟人物进行动画化。
比如,输入 " 一个在火山里踢踏舞的宇航员 " 就能生成一个相应的虚拟形象。
来源:MagicAvatar
或者直接提供一个源视频,然后 AI 就会创建一个跟随给定动作的形象。
看过生成效果,不少网友惊呼,Runway 的 Gen-1、Gen-2 不香了!
来源:推特
根据字节团队的解释,相比以往直接从多模态输入生成视频,MagicAvatar 独特之处主要是将视频生成明确分解为两个阶段。
第一阶段,主要将多模态输入(文本、视频、语音等)转换为表示运动的信号,如人体姿态、深度信息、DensePose 等。第二阶段,则是将第一阶段生成的运动信号与外观描述一起输入到模型,然后生成视频。
这里提一嘴,DensePose 是一种计算机视觉技术,用于将人体在影像上的姿态信息与一个 3D 人体模型进行关联。
比如,我们想生成一个 " 女子交叉手臂在舞池跳舞 " 的视频,直接把提示词投喂给 AI,AI 会先识别生成交叉手臂的动作,然后再生成目标形象。
这样做的好处优势在于降低了学习难度,不同模态之间不仅可以使用独立的数据进行训练,且不需要所有模态都同时存在的数据集。
另外,MagicAvatar 还支持用户上传目标人物的图片,来为特定人物生成动画,实现个性化需求。
未来研究团队表示,还将推出音频引导形象生成的功能,到时候用户只用通过音频输入就能创建形象,比如说话、唱歌。
三阶段训练,AI 高保真编辑
MagicEdit 是一个文生视频的编辑工具。用户只需要自然语言提示,就能轻松地改变视频的风格、场景甚至替换视频里的对象或添加元素,同时保持原视频的动作和外观一致,还可以通过视频混合功能创造出新颖的概念。
比如,把左边这只小兔子变成一个像兔子的老虎,直接提示 Tiger就搞定。
OS:(虽然看着有点怪,不过意思是到了…)
来源:MagicEdit
具体来说,MagicEdit 可以清晰地分离视频对象的外观和动作并进行学习,实现了高质量和时间连贯的视频编辑。它能够独立地处理和优化这两个方面,然后再将它们合成到一个新的完整的视频中。这样做的好处是,编辑过程更加灵活和高效,同时也能保证视频的质量和时间连贯性。
比如,你正在编辑一个视频,其中有一个人在跳舞,外观就是这个人的衣服、发型、脸型等,而动作就是他跳舞的动作。
简单来说,MagicEdit 就像是一个聪明的导演,它能分别调整这个人的衣服和跳舞动作,然后再把这两者完美地结合在一起,按照不同个性化需求生成新的视频。
新视频可能背景、场景和风格不一样了,但是保持了原视频的人物外观和动作,同时整个视频看起来既漂亮又流畅。
目前,MagicEdit 支持多种编辑应用,包括视频风格化、局部编辑、视频混合(Video-MagicMix 等功能。视频风格化就是能够将源视频转换成具有特定风格,创建具有不同主题和背景的新场景,比如现实、卡通等。
局部编辑则允许用户对视频进行局部修改,同时保持其他区網域不变。视频混合(Video-MagicMix)就类似于 MagicMix,可以在视频领網域内混合两个不同的概念,以创建一个新的概念。
除此以外,MagicEdit 还支持视频扩展功能,可以在不重新训练的情况下进行视频扩展任务。
按照以前的逻辑,视频扩展通常需要针对此任务特别训练模型或微调,灵活性比较差。
因此研究团队,通过在去噪过程中灵活注入反向潜码(inverse latent)和随机噪声,这样可以保证已知区網域不变,未知区網域生成新的内容,然后无需重新训练就可以直接生成符合提示的新内容,极大提高了视频扩展比例的鲁棒性。
字节海外出品
根据论文显示,这两个 AI 视频项目都是由字节的科学家共同发表,其中五位作者中有四人来自中国,且都曾在字节实验室做过研究或实习。
通讯作者严汉书(Hanshu YAN)是字节跳动新加坡的研究科学家,致力于视频 / 影像生成模型。
他本科毕业于北京航空航天大学电气工程专业,硕士和 PhD 都在新加坡国立大学,曾在新加坡海洋人工智能实验室(Sea AI Lab)实习。
来源:Hanshu YAN
Jun Hao Liew 是字节跳动新加坡的计算机视觉科学家,他本科毕业于英国伦敦大学学院(UCL)的电子电气工程专业,硕士和 PhD 则是在新加坡国立大学就读,曾在 Adobe 实习。据 Google Scholar 显示,目前其论文引用量已经有 1400 多。
来源:GoogleScholar
其他几位作者,也都是在新加坡读博,并在字节跳动新加坡参与科研。
加速布局 AI 视频
2023 年的字节跳动在 AI 领網域的布局,确实可以用加速跑来形容。
从近期大模型云雀获批,到刚刚对外测试 AI 对话产品的豆包,以及 6 月字节跳动旗下火山引擎发布大模型服务平台 " 火山方舟 ",面向企业提供模型精调、评测、推理等全方位的平台服务。
来源:火山引擎
而作为一家以短视频起家的互联网公司,除了深耕 TikTok、抖音等平台外,视频一直是字节的强关注领網域。
比如今年 4 月字节就在美国上架了一款以照片、视频为主的应用程式 Lemon8,类似于海外的 Instagram 和 Pinterest 的混合体。除此以外,字节跳动旗下的另一款视频编辑工具 "CapCut",在苹果应用商店中被列为美国最受欢迎的应用軟體之一。
虽然短视频业务市场占有率不低,但要论拥抱 AI 的速度,字节确实说不上快。对比之下,前段时间美图发布 2023 上半年财报,得益于 AI 视频、绘图等 AIGC 功能的推出,总收入 12.61 亿人民币,同比增长了 29.8%。
The Information 此前报道表示,字节跳动 2022 年总收入达到了 850 亿美元,同比增长 38%,主要收入来自 TikTok、视频游戏和企业軟體等,AI 还未能给字节带来任何巨大收益。
长按添加「智涌」小助手入群, 备注:公司 + 职务