今天小编分享的科学经验:跑男后期狂喜:编辑一帧,整个视频跟着变!比LNA渲染快5倍,Adobe联合出品,欢迎阅读。
前不久跑男为了让 "kunkun" 原地消失,后期只能一帧一帧的抠图。
现在,只要编辑一帧,整个视频就跟着变!
就是点点 kunkun,整集就自动消失的那种(手动狗头)。
Adobe Research 和英属哥伦比亚大学的研究人员发现,使用INVE(互動式神经视频编辑),只需在单帧上 " 画笔涂鸦 ",就能自动应用改动到整个视频中。
不仅可以编辑视频中的对象并保留空间和光影关系,甚至可以编辑移动对象的纹理色彩。
网友惊呼:太牛了!
互動式神经视频编辑
INVE(Interactive Neural Video Editing)是一种实时视频编辑解决方案。
研究团队受到分层神经图集(LNA)的研究启发。测试发现,通过使用 INVE,可以将稀疏帧编辑一致地传播到整个视频剪辑,辅助视频编辑过程。
视频中的场景通常由非静态背景和一个或多个前景物体组成,运动轨迹也会不同。
早期的 2D 方法需要独立编辑每一帧,并使用帧间跟踪来协调整个视频。
假如我们要把这个小狗头像放在车门上,按照传统方式,视频中车是往前移动的,为避免不出现溢出效果,就需要一帧一帧训练和测试反复编辑。
这种方式费时费力不说,还容易导致明显的视觉伪影。
而最近发展起来的分层神经图集(LNA)方法,可以通过一组分层神经网络 2D 图集对单个训练和测试,达到编辑整个视频的效果。
虽避免了逐帧编辑,但也有一些问题,比如处理速度较慢、对某些编辑用例支持不足。
因此,研究团队基于 LNA 方法,通过学习影像图集和影像之间的双向函数映射,并引入矢量化编辑,使得在图集和影像中一致编辑成为可能。
同时,采用多分辨率哈希编码来改善模型的收敛速度。
如何实现
研究团队基于光流提取算法 RAFT,在包含 70 帧且分辨率为 768 × 432 的视频上训练和测试模型。
首先,团队在每个训练批次中随机采样了 10,000 个视频像素,然后设定了一个模型参数值。
通过将 GPU 优化的 Fully Fused MLP 架构引入,仅迭代大约 12,000 个次数就完成训练,相比于 LNA 的 300,000 个迭代次数要少得多。
测试显示该方法在单个 NVIDIA RTX 4090 GPU 上的渲染速度为 24.81 FPS,对比 LNA 的渲染速度 5.34 FPS,渲染速度快了近 5 倍。
经过相同数量的迭代训练,团队模型的重建、流场损失都比 LNA 更快地收敛。
此外,为实现点跟踪,团队选择逆映射的方法,允许添加跟踪单个 / 少数点的刚性纹理。
团队提出 " 矢量化素描技术 ",将多边形链直接映射到图集中,更精确地控制线条,从而减少计算成本并避免有视觉伪影。
再通过分层编辑,允许在图集之上叠加多个可编辑图层,使每个图层都可独立访问和编辑。
分层编辑支持多种类型的编辑,包括画笔涂鸦、局部调整、纹理编辑。
比如画笔涂鸦,就可以直接使用画笔工具草图涂鸦。
比如纹理编辑,可以导入外部图形,跟踪和变形的运动对象。
研究团队
作者团队由来自 Adobe Research、英属哥伦比亚大学、AI Vector 研究所和 CIFAR AI 组成。
第一作者是 Jiahui Huang,目前是 Adobe Research 的研究工程师,硕士毕业于英属哥伦比亚大学。
其他作者包括 Kwang Moo Yi、Oliver Wang 和 Joon Young Lee,整个团队研究方向主要也是在计算机视觉、机器学习和视频编辑领網域。
论文传送门 :
https://arxiv.org /abs/2307.07663
参考链接:
[ 1 ] https://twitter.com/_akhaliq/status/1681162394393886720/
[ 2 ] https://gabriel-huang.github.io/inve/