今天小編分享的科學經驗:謝賽寧緊急辟謠:Sora跟我一點關系沒有,他們996搞一年了,歡迎閲讀。
誤會了誤會了,被傳為 "Sora 作者之一 " 的上交大校友謝賽寧,本人緊急辟謠。
他的聲明發在其朋友圈,以及 " 交大校友荟 " 賬号交大 org上,主要説了幾點:
Sora 完全是 OpenAI 的工作,和謝賽寧本人一點關系沒有。
但他後面将在紐約大學開展相關研究
要開發 Sora 這樣的成果,人才第一, 數據第二,算力第三。
《黑鏡》等科幻作品裏的部分故事可能很快成為現實,需要準備好對應的監督體系。
傳播不實信息的原文章也在大家幫忙舉報後被平台下架了。
這番誤會終于算是告一段落。
不過謝賽寧透露的信息中還有一些細節值得關注,相熟的 Sora 開發領隊 Bill Peebles 説團隊基本不睡覺高強度工作了近一年。
而 Bill Peebles 在 2023 年 3 月入職 OpenAI,距今剛好不到一年。
也從側面否定了之前傳聞中的 "Sora 早就開發完成,只是一直沒發 "。
至于為什麼會有這個離譜的誤會,還要從謝賽寧與 Peebles 合作的一篇論文説起。
為什麼會有這個誤會?
Sora 技術報告引用的一項研究成果DiT 模型,正是謝賽寧與 Peebles 合著。
那時 Peebles 博士在讀期間到 Meta 實習,謝賽寧也還沒完全離開 FAIR。
DiT 首次将 Transformer 與擴散模型結合到了一起,相關論文被 ICCV 2023 錄用為 Oral 論文。
雖然 Sora 模型具體架構細節沒有公布,但謝賽寧此前從 Sora 技術報告中分析出出,很可能就是建立在 DiT 的基礎之上。
除此之外,Sora 還參考借鑑了許多其他學術界成果。
如把訓練數據編碼成 Patch 的方法,引用了谷歌 DeepMind 的 Patch n ’ Pack 等。
博采眾長,同時堅定在 Scaling Law 指引下力大磚飛,才造了令人驚嘆的 Sora 成果。
大神确實也是大神
排除掉這個誤會,謝賽寧确實也是 AI 研究領網域的一位大神,目前在紐約大學任助理教授。
他本科畢業于上海交通大學 ACM 班,18 年博士畢業于加州大學聖迭戈分校。
畢業後謝賽寧加入 Facebook AI Research(FAIR),曾與何恺明合作提出 ResNeXt。
目前他在谷歌學術總被引用數達到 4 萬 5,h-index 也高達 31。
就在 Sora 發布不久前,他還領導紐約大學團隊對 DiT 模型來了個大更新,新模型稱為 SiT。
SiT 與 DiT 擁有相同的骨幹網絡,但質量、速度靈活性都更好。
謝賽寧認為,跟進 Sora 相關研究是學術界可以為這個時代肩負的重責之一。
讓我們一起期待他的新成果吧。
參考鏈接:
[ 1 ] https://mp.weixin.qq.com/s/4ox9ITnd8TE2_Sior3eaEA
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>