今天小编分享的科学经验:Sora训练数据疑暴露,网友:绝对用了UE5,欢迎阅读。
好消息,好消息,真 · Sora 视频上新了!走过路过不要错过!
(不用苦苦等候,或撑大眼睛费劲吧啦鉴别真假 Sora 产品了)。
就在过去短短几个小时里,包括 Bill Peebles、Tim Brooks 两位负责人在内的工作人员唰唰唰 N 连发。
(好了好了,知道你们是好朋友)
不仅有前所未的多视角、新功能展现,最重要的是,各个视频的呈现效果依然处于令人惊叹的段位。
比如 Go Pro 视角下潜水去探索沉船。
比如下面这段视频,效果跟此前写实、逼真的画风有点不一样。
而且 Sora 产出的是同一片段的不同视角画面。
它的提示词是:精心制作的立体模型,描绘了日本江户时代的宁静场景。传统的木结构建筑。一个孤独的武士,穿着复杂的盔甲,缓慢地穿过城镇。
另外比较惊艳的还有一头大眼睛、长睫毛、口喷冷气的小白龙,就是下面这位:
有人尝试用同样的 prompt 在 DALLE · 3 上画画,得到的结果是这样的:
就,还挺神似!
但 Sora 小白龙的效果让某种声音越来越大,那就是:
好家伙,我一眼就看出这玩意儿有虚幻引擎的影子!
不过,这波视频还是惹得网友们 wow wow 的,不停惊叹,怎么 Sora 每波视频效果都越来越好了?
我的天爷啊,等 Sora 公测开放等得大家一天只能吃下三顿饭了!
有的网友超级激动,已经在知名新产品挖掘平台 ProductHunt 上给 Sora 的 API 站好了坑。
万事俱备,只欠东风。
官方新视频再流出
首先来看看 Sora 这波上新,此次最惊艳的是由玻璃制成的乌龟,日落时分在沙滩上爬行。
不过也有细心的网友发现:" 我只看到了三条腿… "" 前面两条腿更像乌龟的脚蹼 "
而在 Midjourney 上使用相同的提示,效果是这样的。
另外,多个视角展现也成为了此次上新的亮点。
比如在夏威夷玩跳伞。
提示词:a man BASE jumping over tropical hawaii waters. His pet macaw flies alongside him(一名男子在夏威夷热带海網域进行低空跳伞,他的宠物金刚鹦鹉与他并肩飞翔)
甚至还有 F1 赛车手的视角。
此外,Sora 还暴露了一些类似剪辑的新功能——无缝衔接。
此前看到,它能通过文本、影像或视频输入对模型进行提示。
如今发现,它还可以在两个输入视频之间逐渐进行插值。两个毫不相干的 Sora 视频,结果无缝过渡成了新视频。
咳咳,不过水下为啥会有蝴蝶??
任意尺寸比例生成,此次新视频也得到了展现。
不过由于悉数都是 Sora 团队成员发布的视频,有网友觉得,除非有个非 OpenAI 工作人员才测试,不然 Sora 就是个 vaporware(雾件)
这些案例中,也有被认为翻车的……
提示词:a dark neon rainforest aglow with fantastical fauna and animals(黑暗的霓虹雨林,闪烁着奇幻的动物和动物的光芒)
网友表示:为什么会是矢量动画的风格,提示中根本并没有这样的提示。
这是我见过 Sora 最糟糕的例子
" 我不是专家,但这绝对用了 UE5"
与此同时,关于 Sora 所生成视频的讨论重心,逐渐从 " 这不符合物理世界的规律 ",转移到更深层次——
关于其背后训练数据来源的讨论。
现在的民间主流说法(doge)是:
这绝对用了 3D 引擎 /UE5 来训练的!
英伟达科学家、大家伙熟悉的老盆友 Jim Fan 老师就在首日猜测过,称 Sora 虽然没有明确表示调用了 UE5,但极有可能把用 UE5 生成的文本、视频当作合成数据,添加到自个儿的训练集中。
也有一位前谷歌工作人员对 Sora 这次的新视频进行了在线锐评:
Sora 这效果,我真的认为需要 3D 引擎 + 生成式 AI 结合,才能实现这样的一致性和视频质量。
事实证明,就是得要更多的数据和计算……
倒不是 Jim Fan 等人的一家之言。早在第一波 Sora 视频亮相时,这种声音就第一时间起来了,声量还很不小。
再多举个。
一位从事数据科学和 ML 的推友罗列出了自己站队这种观点的 " 证据 "。
他亮出的牌是漫步樱花街头的那段视频。
然后配文道:" 视频中移动的人似乎与 UE5 演示中的人类的移动方式非常相似。现实中的人走路逛街,并不会老用一个恒定的速度。"
也有人质疑这种说法,毕竟 Youtube 等互联网上拥有数十亿(可能还不止)小时的视频片段,干啥要用虚幻引擎来增加工作量呢?
于是就有人把 " 汽车行驶 " 的视频片段丢到上面这位推友小哥面前,说这看起来也不像是用了 3D 引擎搞的呀!
小哥友好地嘚吧嘚嘚吧嘚,开始了自己的分析:
" 我不是专家……但感觉 UE 让汽车行驶掀起的尘土,只在后轮部分有。但其实现实情况中,前轮部分也会扬起尘沙。"
当然也有不少人赞同他,附和道:
虽然不一定用的是 UE5 吧……但事实确实是,用数字孪生模拟可能效果和效率都更好。
而且这样还能用较少的 IRL 数据进行更高质量的数据采样。
以及还有人把自己理解中 Sora 的 pipeline 都列到推特上了。
这种讨论大规模流传开后,不少人对 Sora 可能是 "UE5+AIGC" 产生的效果嗤之以鼻。
" 哼!我话放在这儿,合成数据是视觉机器学习的作弊代码!!"
同时有人从这种讨论中看到了不久之后的一种可能性。
即未来的生成不是通过模拟真实物理来呈现,而是通过训练模拟物理模拟(即现实世界)的模型来呈现。
嗯……咱就是说,谁能一口否定没有这种可能呢?
One More Thing
Sora 上新视频后,有网友急冲冲去问了另一家 AI 视频生成头部玩家 Runway 的首席执行官。
" 最近几个月,有发布新版本的打算吗?就是质量接近 Sora 的那种~"
Runway CEO 冷冷回了一个词儿:
better
参考链接:
[ 1 ] https://twitter.com/minchoi/status/1761367515777695965