今天小编分享的科技经验:输入文字就能生成视频!周鸿祎称Sora工作原理像人做梦,欢迎阅读。
快科技 2 月 20 日消息,近日 OpenAI 发布了首款文生视频模型—— Sora 模型。
该模型可以根据用户输入的文字描述,生成一段长达 1 分钟的高清流畅视频,也能通过现有的静态影像生成视频,还能对现有视频进行扩展、填充缺失内容。
从目前的效果来看,Sora 生成的视频效果非常出色,场景逼真、细节真实。
360 创始人、董事长周鸿祎最新发布视频分享自己对 Open AI 最新的文生视频大模型 Sora 的见解,称 "Sora 工作原理像人做梦,未来 AGI 比的就是算力和对世界的理解。"
他在视频中表示:" 用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是 3D 件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。
视频
但 Sora 的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要 3D 建模然后一帧一帧渲染的。"
他还把近期人们关注的 Sora 在视频中出现的 Bug 等比做人在做梦时同样会产生的幻觉等违背现实规律的情况。
值得注意的是,周鸿祎此前还强调,Sora 可能给广告业、电影预告片、短视频行业带来巨大的颠覆。