今天小編分享的科技經驗:人類數據,要被OpenAI用完了,然後呢?,歡迎閲讀。
「比大更大」(Bigger than bigger)當年蘋果的一句廣告詞,用來形容現在 AI 領網域最熱的大語言模型,看起來也沒什麼不對。
從十億、百億再到千億,大模型的參數走向逐漸狂野,相應的,用來訓練 AI 的數據量,也以指數級暴增。
以 OpenAI 的 GPT 為例,從 GPT-1 到 GPT-3,其訓練數據集就從 4.5GB 指數級增長到了 570GB。
不久前的 Databricks 舉辦的 Data+AI 大會上,a16z 創始人 Marc Andreessen 認為,二十幾年來互聯網積累的海量數據,是這一次新的 AI 浪潮興起的重要原因,因為前者為後者提供了可用來訓練的數據。
但是,即便網民們在網上留下了大量有用或者沒用的數據,對于 AI 訓練來説,這些數據,可能要見底了。
人工智能研究和預測組織 Epoch 發表的一篇論文裏預測,高質量的文本數據會在 2023-2027 年之間消耗殆盡。
盡管研究團隊也承認,分析方法存在嚴重的局限,模型的不準确性很高,但是很難否認,AI 消耗數據集的速度是恐怖的。
低質量文本、高質量文本和影像的機器學習數據消耗和數據生產趨勢|EpochAI
當「人類」數據用完,AI 訓練不可避免地,将會使用 AI 自己生產的内容。不過,這樣的「内循環」,卻會產生很大挑戰。
不久前,來自劍橋大學、牛津大學、多倫多大學等高校的研究人員發表論文指出,用 AI 生成的内容作為訓練 AI,會導致新模型的崩潰。
所以,AI 訓練用「生成數據」會帶來崩潰的原因是什麼?還有救嗎?
01 AI「近親繁殖」的後果
在這篇名為《遞歸的詛咒:用生成數據訓練會使模型遺忘》的論文中,研究人員指出,「模型崩潰」是一個幾代模型的退化過程。
前一代模型生成的數據,會污染下一代模型,經歷幾代模型的「傳承」,它們就會錯誤地感知世界。
模型迭代示意圖|arxiv
模型崩潰分為兩步:
在早期模型崩潰中,模型會開始失去原始數據的分布信息,也就是「幹淨的人類數據」;
在晚期,模型會把上幾代模型對原始分布信息的「錯誤認知」糾纏到一起,從而曲解現實。
研究人員首先從頭訓練了小樣本模型 GMM(高斯混合模型)和 VAE(變量自動編碼器)。以 GMM 為例,下圖最左是原始數據的正态分布。
可以看到,模型一開始對數據的拟合非常好。到第 50 次迭代時,基礎數據分布開始被錯誤感知。當迭代來到 2000 次時,模型已經收斂到一個很小的點,這意味着模型開始穩定輸出錯誤答案。
GMM 在迭代 0、50、100、150、200、350、2000 時拟合數據的例子|arxiv
為了驗證預訓練對實驗結果的影響,研究人員又在 Meta 開發的 1.25 億參數的 LLM(大語言模型)OPT-125m 上進行了實驗,數據集來自維基百科的 wikitext2。
和 GMM、VAE 這類小模型不同,LLM 從頭訓練的成本非常高,所以它們都是經過預訓練的。實驗結果如下:
輸入:根據 Poyntz Wright 的説法,在 1360 年之前有些活動通常由一位主要石匠和一小隊流動的石匠完成,輔以當地教區勞工。但其他作者則否認了這種模式,相反提出主建築師借鑑英國垂直式風格設計了教區教堂的尖塔。
輸出:
第 0 代:復興建築,例如倫敦的聖約翰大教堂。現存最早的垂直復興建築可以追溯到 18@-@ 世紀的根西島聖母教堂,該教堂建于 19 世紀末。有兩種類型的垂直式教堂:那些
第 1 代:建築,如羅馬的聖彼得大教堂或布宜諾斯艾利斯的聖彼得大教堂。沒有證據表明這些建築 是在教皇英諾森三世統治時期建造的,但有可能是在他的繼任者英諾森教皇統治時期建造的。
第 7 代:英國的建築。在接受外媒采訪時,賴特説:" 我不認為我能夠做我想做的事情有什麼問題。它只是對我不起作用。" 他補充説:" 我不知道你是否可以稱之為有趣、
第 9 代:建築。除了成為全球黑 @-@ 尾巴大野兔、白 @-@ 尾巴大野兔、藍 @-@ 尾巴大野 兔、紅 @-@ 尾巴大野兔、黃 @- 的最大栖息地之一
可以看到,到第 9 代模型時,輸出的内容已經完全不知所雲。
論文的作者之一 Ilia Shumailov 説,随着時間的推移,人工智能生成的數據中的錯誤不斷累積,主要的模型在接受這些數據的訓練後,會對現實產生更加扭曲的看法。
02 為什麼會模型崩潰?
「模型崩潰」產生的最主要原因,還是因為 AI 并非真正的智能,它展現出的近似「智能」的能力背後,其實是基于大量數據的統計學方法。
基本上,所有無監督機器學習算法都遵循一條簡單的模式:給定一系列數據,訓練出一個能描述這些數據規律的模型。
這個過程中,訓練集裏更大概率出現的數據就更容易被模型重視,小概率出現的數據就會被模型低估。
舉個例子,假設我們需要記錄 100 次骰子的投擲結果,來計算每個面出現的概率。理論上,每個面出現的概率是一樣的。在現實生活中,由于樣本量較小,可能 3、4 出現的情況比較多。但對于模型而言,它學習到的數據就是 3、4 出現的概率更高,因而會傾向于生成更多的 3 和 4 的結果。
「模型崩潰」示意圖|arxiv
另一個次要原因是函數近似誤差。也很好理解,因為真實函數往往很復雜,實際運用中,經常使用簡化的函數來近似真實函數,這就導致了誤差。
03 真沒招了嗎?杞人憂天!
所以,在人類數據越來越少的情況下,AI 訓練真的沒機會了嗎?
并不是,用于訓練 AI 數據枯竭的問題,還有方法能解決:
數據「隔離」
随着 AI 越來越強大,已經有越來越多的人開始使用 AI 輔助自己工作,互聯網上的 AIGC 爆炸式增長,「幹淨的人類數據集」可能會越來越難以找到。
谷歌深度學習研究部門谷歌大腦 Google Brain 的高級研究科學家 Daphne Ippolito 就表示,在未來,要找到高質量、有保證的無人工智能訓練數據将變得越來越棘手。
這就好比是一個患有高危遺傳病的人類始祖,但是又擁有極其強大的繁殖能力。在短時間内他就把子孫繁衍到了地球每一個角落。然後在某一時刻,遺傳病爆發,人類全體滅絕。
為了解決「模型崩潰」,研究團隊提出的一種方法是「先行者優勢」,也就是保留對幹淨的人工生成數據源的訪問,将 AIGC 與之分隔開來。
同時,這需要很多社區和公司聯合起來,共同保持人類數據不受 AIGC 污染。
不過,人類數據的稀缺意味着這其中有利可圖,已經有一些公司行動起來了。Reddit 就表示将大幅提高訪問其 API 的費用。該公司的管理人員表示,這些變化 ( 在一定程度上 ) 是對人工智能公司竊取其數據的回應。Reddit 創始人兼首席執行官 Steve Huffman 曾告訴外媒 :「Reddit 的數據庫真的很有價值。」「但我們不需要把所有這些價值都免費提供給一些全球最大的公司。」
合成數據
同時,專業基于 AI 生成的數據,早已有效用于 AI 的訓練。在一些從業者看來,現在擔心 AI 生成的數據會導致模型崩潰,多少有點「标題黨」。
光輪智能創始人謝晨光告訴極客公園,國外論文提到的,用 AI 生成數據訓練 AI 模型導致崩潰,實驗方法比較偏頗。即便是人類數據,也有能用和不能用之分,而論文提到的實驗,則是不加分辨地直接用來訓練,而并非有針對性的經過質檢、效用性判定後作為訓練數據,顯然有可能會造成模型崩潰。
謝晨透露,其實 OpenAI 的 GPT-4,就采用了大量前一代模型 GPT-3.5 生產的數據來進行訓練。Sam Altman 也在近期的采訪中表達,合成數據是解決大模型數據短缺的有效方法。而其中的關鍵在于,有一整套體系來區分 AI 生成的數據中,哪些可用,哪些不可用,并不斷根據訓練後模型的效果進行反饋——這是 OpenAI 能笑傲 AI 江湖的絕招之一,這家公司并不只是融的錢多,買的算力多這麼簡單而已。
在 AI 行業内,使用合成數據來進行模型訓練,早已經成為一個尚未為外人所知的共識。
曾經在英偉達、Cruise、和蔚來等公司負責自動駕駛仿真的謝晨認為,以目前各種大模型訓練的數據量來看,未來 2-3 年,人類數據确實有可能「枯竭」,但是基于專業化體系和方法,AI 生成的合成數據,會成為用之不竭的有效數據來源。并且使用場景并不局限于文字和圖片,像自動駕駛、機器人等行業需要的合成數據量,将遠遠大于文本的數據量。
AI 三要素,數據、算力、算法,數據來源有着落了,算法大模型在不斷進化,唯一剩下的算力壓力,相信英偉達創始人黃仁勳是可以順利解決的。