今天小编分享的互联网经验:OpenAI Sora问世,通往AGI的又一个ChatGPT时刻!GPT4可能也要被干掉了,欢迎阅读。
OpenAI 的文生视频模型 Sora 刷屏了。
它有多震撼呢?这么说吧,上一次这么疯狂的刷屏可能还是人类第一次见到 ChatGPT 的时候。以及,Sora 之前几小时 Google 刚刚推出了它最强的 LLM Gemini1.5,并试图宣称自己终于杀死了 GPT-4,然而,显然现在没人关注了。
因为看完 Sora 你可能会发现,OpenAI 自己可能要用它先杀死 GPT-4 了。
每个人都可以创造自己的世界了
先来看看 Sora。
人们一直期待 GPT-5,但 Sora 带来的轰动不亚于一次 GPT-5 的发布。
作为 OpenAI 首推的文本转视频模型,Sora 能够根据文本指令或静态影像生成长达 1 分钟的视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。同时也接受现有视频扩展或填补缺失的帧。
每条提示 60 秒的视频长度与 Pika Labs 的 3 秒、Meta Emu Video 的 4 秒、和 Runway 公司 Gen-2 的 18 秒相比,妥妥地铁赢了。并且从官方发布的演示来看,无论从视频流畅度还是细节表现能力上,Sora 的效果都相当惊艳。
比如官推里这条 14 秒的东京雪景视频。
提示词:Beautiful, snowy Tokyo city is bustling. The camera moves through the bustling city street, following several people enjoying the beautiful snowy weather and shopping at nearby stalls. Gorgeous sakura petals are flying through the wind along with snowflakes.
「美丽的,被雪覆盖的东京正繁忙着。镜头穿过繁忙的城市街道,跟随着几个享受雪景和在附近摊位购物的人。美丽的樱花瓣随风飘落,与雪花一同飞舞。」
穿着时尚的女性漫步在霓虹背景的东京街头,地面有积水倒影。
对于五官和皮肤的刻画十分真实,特别是痘印和法令纹,细节让人惊叹。
猛犸象自冰川雪原中缓步从来,背后升腾起雪雾。
烛火旁纯真顽皮的 3D 动画小怪物,光影、表情和毛茸茸的细节满分:
一名 24 岁女性的眼部特写,足以以假乱真。
无人机视角的海浪拍打着 Big Sur 加瑞角海岸崖壁,落日洒下金色光芒。
窗台上的花朵开放延时影像:
民众们上街舞龙,庆祝中国农历春节。
可爱小猫咪在线安抚起床气。
夜晚街道跑着的快乐小狗。
两艘微型海盗船在一杯咖啡里对峙。
加州淘金时代罕见 " 历史影像 " 流出—— 像吗?Sora 做的。
目前 Sora 还在测试阶段,仅对部分评估人员、视觉艺术家、设计师和电影制作人们开放访问权限,拿到试用资格的人们已经开始想象力横飞。
Sam Altman 就转发网友用 Sora 制作的 " 金光灿灿动物园 " 视频,玩起了自己的 "What" 梗:
他还邀请大家踊跃提出想用 Sora 制作视频的提示词,团队马上为大家生成,瞬间 8 千多条回复。
网友腦洞大开,要看海洋生物的自行车公开赛。
两只金毛在山上戴着耳机开播客。
当然也不忘 cue 一下去向成谜的 Ilya,要求生成一个 "Ilya 眼中的真实世界 "。
不过 OpenAI 也表示,虽然 Sora 对自然语言有着深入的理解,能够准确洞悉提示词,生成表达丰富的内容,并可以创建多个镜头、保持角色和视觉风格的一致性,但仍不可避免地存在一些弱点。
例如,它在准确模拟复杂场景的物理现象方面存在困难,也可能不理解特定的因果关系。比方说 " 一个人咬一口饼干后,饼干上可能并没有咬痕。"
模型也可能混淆提示的空间细节,像是弄错左右。或者 " 在准确体现随时间发生的事件方面遇到困难,比如遵循特定的攝影機轨迹 "。
Sora 也使用了 DALL · E 3 的 recaptioning 技术,该技术涉及为视觉训练数据生成高度描述性的标题。因此模型能够更忠实地按照用户在生成视频中的文本指令进行操作。
它能够一次性生成整个视频,或是扩展已生成的视频使其变长。通过让模型一次性预见多帧,解决了即使主体暂时离开视线也能保持不变的挑战性问题。
关于安全性,OpenAI 表示正与错误信息、仇恨内容和偏见等领網域的专家合作,对模型进行对抗性测试。同时也在开发帮助检测误导性内容的工具,识别视频是否由 Sora 生成。对于违反使用政策的文本提示,例如暴力、仇恨和侵犯他人知识产权等内容,将拒绝显示给用户。
除此以外,为 DALL · E 3 产品构建的现有安全方法也同样适用于 Sora。
" 尽管进行了广泛的研究和测试,我们仍无法预测人们将如何利用我们的技术,也无法预见人们如何滥用它。这就是为什么我们相信,从真实世界的用例中学习,是随时间构建越来越安全的 AI 系统的关键组成部分。"
OpenAI 对 Sora 信心满满,认为这为模型理解和模拟真实世界奠定了基础,是 " 实现 AGI 的重要里程碑 "。
网友们也第 n+1 次纷纷哀悼起相关赛道的公司们:
"OpenAI 就是不能停止杀死创业公司。"
" 天哪,现在起我们要弄清什么是真的,什么是假的。"
" 我的工作没了。"
" 整个影像素材行业被血洗,安息吧。"
能杀死 GPT-4 的世界模型?这不就是吗
OpenAI 一如既往没有给出很详细的技术说明,但一些只言片语已经足够让你浮想联翩。
其中最吸引我们注意的第一个点,是对数据的处理。
Sora 是一个扩散模型(diffusion model),采用类似 GPT 的 Transformer 架构。而在解决训练中文本资料与视频数据之间的统一方面,OpenAI 表示,他们在处理影像和视频数据时,把对它们进行分割后得到的最小单元,称为小块(patches),也就是对应 LLM 里的基本单元 tokens。
这是一个很重要的技术细节。把它作为模型处理的基本单元,使得深度学习算法能够更有效地处理各种视觉数据,涵盖不同的持续时间、分辨率和宽高比。
从最终的震撼效果看,你很难不得出这样一个结论:对语言的理解能力,是可以迁移到对更多形态的数据的理解方法上去的。
此前的 Dalle-3 的效果就被公认很大程度来自 OpenAI 在 GPT 上积累的领先 N 代的语言能力,哪怕是个影像为输出的模型,语言能力提升也是至关重要的。而今天的视频模型,同样如此。
至于它是如何做到的,有不少行业内的专家给出了相同的猜测:它的训练数据里使用了游戏领網域最前端的物理引擎 Unreal Engine5,简单粗暴的理解,就是语言能力足够强大之后,它带来的泛化能力直接可以学习引擎生成的影像视频数据和它体现出的模式,然后还可以直接用学习来的,引擎最能理解的方式给这些利用了引擎的强大技术的视觉模型模块下指令,生成我们看到的逼真强大的对物理世界体现出 " 理解 " 的视频。
基于这个猜测,OpenAI 简短的介绍中的这句话似乎就更加重要了:
"Sora 是能够理解和模拟现实世界的模型的基础,OpenAI 相信这一功能将成为实现 AGI 的重要里程碑。"
理解,现实,世界。
这不就是人们总在争论的那个唯一有可能 " 干掉 "GPT-4 的世界模型。现在,OpenAI 搞出来了它的雏形,摆在了你的面前。
看起来,这个模型学会了关于 3D 几何形状和一致性的知识,而且并非 OpenAI 训练团队预先设定的,而是完全是通过观察大量数据自然而然地学会的。负责 Sora 训练的 OpenAI 科学家 Tim Brooks 表示,AGI 将能够模拟物理世界,而 Sora 就是迈向这个方向的关键一步。
显然,在 OpenAI 眼里,它不只是一个 " 文生视频模型 ",而是更大的东西。
我们如果尝试进一步给一个暴论,就是:语言是理解一切的基础,当AI用语言的能力来理解了视频后,世界模型就有可能会到来。
可能这才是比今天刷屏感慨 " 现实不存在了 " 之外,更恐怖的地方。这可能是人类通往 AGI 的又一个 ChatGPT 时刻。