今天小編分享的教育經驗:周鴻祎:未來屬于正确使用大模型的人,歡迎閲讀。
The following article is from 復旦商業知識 Author 周鴻祎
作 者 | 周鴻祎 360 公司創始人,董事長兼首席執行官
來 源 | 復旦商業知識,管理智慧(guanlizhihui)
如今,人工智能已不再是科幻電影中的幻想,而成為現實生活中不可或缺的一部分。随着技術的迅猛發展,大模型作為人工智能的一項核心技術正逐漸引領着創新的潮流。作為一家知名的科技企業,360 公司深刻洞察到了大模型在企業級市場中的巨大潛力,其創始人周鴻祎對此也有自己獨特的見解。
周鴻祎觀點:
• GPT 不是搜索引擎,也不是聊天機器人,它代表着超級人工智能時代的到來。
• 出現 " 幻覺 " 恰恰是大模型智能的體現,也是它最 " 可怕 " 的地方。
• 有批判精神、有想象力、會提問,是人工智能時代人才的關鍵特質。
• 大模型未來将 " 無處不在 ",大模型的趨勢是做 " 小 " 做 " 專 "。
• 大模型的發展要順勢而為,服務產業數字化戰略,提升政府和企業的生產力和生產效率。
大力出奇迹:
大模型訓練的 " 暴力美學 "
在 OpenAI 之前,所有公司都點錯了 " 科技樹 ",沒想過用 " 大力出奇迹 " 的方式訓練大語言模型。
這次的人工智能和過去的不太一樣。原來的人工智能就像是 " 人工智障 ",大家也體驗過,像 Siri、智能音箱、網聯汽車裏的語音助理,可以説幾句簡單的指令,復雜的理解不了。所以很多人會有質疑:這樣的人工智能是真的智能嗎?我覺得這是認知上的問題。如果你認為它是假的,可能會忽視它;如果你認為是真的,就會認真思考。那麼,我們該怎樣把握這種趨勢?
這次大語言模型用到的算法和模型并不是 Open AI 發明的,而是谷歌發明的。原來這些 Transformer 模型①,包括國内的互聯網公司,我們都在用。OpenAI 就做對了一件事——大力出奇迹。全世界只有他們這麼一夥人,想到了把所有的知識放在一個大模型裏訓練,在這之前,沒有人敢于這麼去想。
OpenAI 成功地在關鍵時刻做出了突破,這個過程是怎麼發生的呢?
首先,是模型的選擇,就像挑選一個空白的大腦,或者可以類比成一個剛剛開始學習的小孩子。
其次,是無監督學習,你可以将其理解為讓一個小孩子不斷閲讀書籍,讀上萬本,甚至十萬本書。這一步非常關鍵,我們要将所有可以找到的知識注入模型中。在這個過程中,與傳統的方式不同,我們不再需要大量的标注數據。比如做人臉識别或者程式識别,你需要準備大量的數據和标注。然而,通用大模型的特點是它不需要這樣的标注,它能夠自主學習,像是一個 " 讀書百遍,其義自見 " 的閲讀過程。當我們将人類所有的書籍注入其中後,這些知識會相互映照,降低學習的難度。
再次,是有監督的微調,它背後的含義是什麼呢?打個比方,你可能把自己的孩子送去奧數班,孩子需要通過做題來學習。類似地,我們可以将人工标注的例題、問題和答案訓練給模型,培養它舉一反三的能力。這個數量并不需要太多,模型要求能夠理解并解決類似的問題,就像做了 10 遍雞兔同籠的問題,以後它再碰上類似的問題便都會做了。
大模型并不是問題,預訓練數據才是。因為相對于全球其他語言,中文的數據量較少②。從次,是 " 價值觀對齊 "。雖然我們訓練出的大模型具有強大的能力,但它可能會表現出不當的言辭,包括黃色内容和暴力言論。無論是在中國還是在美國,這都會受到限制,如不能有種族歧視的言論,不能違反法律。因此,我們采取了一種方法,通過人類提供的價值觀标準,讓模型回答一些例題,從而教導模型如何正确回答問題,這就是價值觀對齊。
然而,價值觀對齊也帶來了一些問題,争議不斷。因為這可能使模型變得愚蠢,受到很多限制。盡管如此,這是我們肩負的責任和探索的方向。
最後,作為一個產品,模型需要發布到互聯網上,通過大量用户的使用來獲得反饋,并不斷進行調整。大數據加上大算力、大标注、大算法、大流量才變成了大模型。ChatGPT 為什麼能夠出圈?OpenAI 不僅在技術上解決得很好,在如下兩件事上也做得很漂亮:一是他們把它包裝成了聊天機器人。" 偽裝 " 成聊天機器人的 SaaS(軟體即服務),用户會聊天就會使用,這讓普通人和人工智能的距離為 " 零 "。但它不是聊天機器人,這一點一定要強調。二是找對場景,解決老百姓的痛點和剛需。再偉大的技術創新,都需要場景支撐來解決實用問題。過去的 AI 產品都是技術專家們的 " 自嗨 ",普通老百姓沒有感覺到,但這次 OpenAI 的概念影響到了全世界幾十億人,這也是非常值得我們去學習的。
① Transformer 模型,是谷歌在 2017 年推出的自然語言處理(NLP)經典模型。
②來自維基百科的信息顯示 , 截至 2020 年 3 月 25 日 ,W3Techs 預測前 100 萬互聯網網站使用的語言文字百分比中 , 英語占比為 59.3%, 而中文不過 1.3%。
這次不是 " 狼來了 ":
大模型已經擁有智能
大模型到底有沒有智能?圖靈測試的本質就是拟人對話的實驗,當機器能夠完成與人類的自然對話,就意味着擁有人類的智慧。
在這之前,計算機的數據庫和搜索都是信息的存儲和檢索。但 OpenAI 是人類第一次實現把知識、理解編碼,基于知識能做推理、做規劃。微軟和 OpenAI 合作之前,大家都覺得他們做的會不會只是一個新的搜索引擎?你問它上一屆世界杯的冠軍是誰?這種問題根本不體現智能性,因為事實性答案用搜索就能得到。" 小張把沙發裝到箱子裏裝不下,它太大了,它是誰?" 這是經典的邏輯學和語言學問題,如果沒有對人類世界知識的理解,僅靠語法分析是分析不出來的。GPT 有一個最基本的點,就是無論你怎麼跟它聊天,它一定能堅持聊下去。你不會覺得它是一個機器人,有時候它説話的 " 油滑勁 " 簡直就像一個世故的中年人,當然這都是公司給訓練出來的。
人和動物最大也最本質的差别是人類發明了語言來描述這個世界的知識。你對這個世界的很多知識不是先驗的,是通過對語言的學習得來的。誰能真正理解語言,就建立了對世界模型的理解,ChatGPT 使人類第一次做到這一點。
盡管今天一個新生事物有很多缺點,這些缺點只要不是致命的問題,未來可以通過迭代更新、自我演化來更新。它代表了新的時代的開始。大家不能錯過這個機會,這次不是 " 狼來了 "。你相信它,可能就會在企業數字化戰略裏用它,而不是把它當成玩具。
四個不可解釋的現象:
人類打開了 " 潘多拉魔盒 "?
第一是湧現。大模型有一個參數規模,大家都會問做了模型,參數是多少?有人説 100 億、1000 億,還有人説未來做 1 萬億。那麼,參數該怎麼理解?把它想象成人大腦裏神經元和神經元的連接,與内存、硬碟是線性存儲不同,人的大腦是非線性存儲。人腦的聯想由神經元存儲信息,這些信息之間充滿了無數連接,所以參數可被比喻成模拟了大腦皮層神經元的 " 連接數 "。原來沒有推理能力,連接數過了六七十億之後開始產生一定的能力,過了五六百億之後,能力突然增強。就像生物進化,地球本來沒有生物的環境,後來從單細胞演變成今天復雜的生物圈。但是直到目前科學家還無法完全解釋,這就叫 " 湧現 "。
第二是幻覺。很多人擔憂 GPT 會產生幻覺,當它不知道怎麼回答的時候,居然會 " 一本正經地胡説八道 "。比如,你問它 " 賈寶玉如何倒拔垂楊柳 ",它真能給你編一段出來。但是換個角度看,這不恰恰是智力的表現嗎?出現 " 幻覺 " 恰恰是大模型智能的體現,也是它最 " 可怕 " 的地方。
《人類簡史》裏提到,人類進化過程中和大猩猩有一個很大的分水嶺。大猩猩可以學會認五個香蕉、三個蘋果,也可以接受簡單的指令,但它永遠無法理解不能發生的事。人類進化的一個關鍵點就是人類是唯一有能力產生幻覺的動物,能描繪不存在的事。人類也會説謊。創造力是什麼?創造力就是創新,把幾個不相關的概念,扭到一起產生鏈接、產生創造。搜索引擎再強大,也只能搜出已經存在的東西,有就是有,沒有就是沒有。今天,大模型的創造力已經在不斷湧現。
第三是語言能力遷移。OpenAI 的訓練語料裏,中文占比可能不到 5%,其他語言的比例高達 95%。我們曾經以為阿拉伯文、日文、中文、拉丁文字的規律是不一樣的,但是他們發現訓練到一定時候,所有語言背後的規律都發生了作用。例如,在英文中學到的知識能力,在其他語言上都能很好地回答。所以,OpenAI 雖然只有 5% 的語料是中文,但它的中文能力還是相當強。
第四是邏輯增強。計算機語言也是一種形式化的符号表達。為了訓練編程能力,研發人員給它讀了很多源代碼,然後發現它不僅學會了編程,在用自然語言回答問題的時候,邏輯感、層次感也得到了極大增強。這幾個現象證明了這次人類可能确實打開了 " 潘多拉魔盒 ",也可能實現了真正的突破。
開啓超級人工智能時代:
大模型把 " 石油 " 變成 " 電 "
大模型對傳統人工智能而言是一場颠覆性的革命。
GPT3.5 是一個拐點,是人工智能走向通用人工智能的拐點。GPT4 是超級人工智能的雛形,它已經是世界上最聰明的 " 人 "。很多人對 GPT4 的用法不對,僅把它當聊天機器人 " 玩 "。
大模型是通用人工智能,可以用一套模型、算法、數據解決所有自然語言理解的問題。大模型從感知進化到了認知,能夠理解文字、語言、分析、規劃,會成為未來很多新的人工智能底座。任何人工智能問題首先要基于大模型,因為大模型基于對世界的理解。大模型将在自動駕駛、機器人控制、蛋白質計算等領網域大顯身手。
一定要站在未來看現在,站在現在看未來。GPT 不是媒體,不是玩具,不是搜索引擎,也不是聊天機器人,它代表着超級人工智能時代的到來。
現在已經有很多科學家在讨論,當人類已有的書本知識訓練完了,我們用什麼來訓練這個超級大腦?答案可能是全世界的攝像頭。對它來説,識别視頻已經不是問題;可以想象一下,通過這種學習它的進化速度會有多快。
未來屬于會正确使用大模型的人。GPT 是這個時代最偉大的工具,凝聚全人類的知識成果。它賦予普通人更強大的能力,解鎖專業技能,發揮聰明才智。
年輕人有機會借助 GPT 拉近和前輩的距離。有批判精神、有想象力、會提問,是人工智能時代人才的關鍵特質。人工智能發展的終極目标是人機協作。
大模型目前的工具屬性非常強,把人類幾千年的知識濃縮在一個模型裏,通過一個聊天接口,讓每個人都能擁有。我覺得在企業裏要采用大模型,首先能提高組織效率,提高員工能力,特别是新員工的培訓入職。它還能解鎖人的很多能力。目前大模型還有很多不完美的地方,讓它獨立完成一項復雜工作基本上沒有可能。它給企業做戰略規劃的時候,還得加上人的判斷。大數據不是數字化的終點。大數據有點像石油,雖然很寶貴,但是不能直接用。因為你不能直接把石油灌到油箱裏,大模型正好解決了這個問題,就是把大數據訓成大模型,就像把石油變成了電一樣。
一旦變成了電,就可以提供很多通用的能力,注入企業。大模型不是作業系統,而是數字化系統的标配。大模型未來将 " 無處不在 ",大模型在中國的發展之路不會走向壟斷,而是與計算機類似。大模型的趨勢是做 " 小 " 做 " 專 ",在電腦和手機上跑起來,每一台智能汽車上也會有大模型。未來,每個家庭、企業、政府部門都會有至少一個大模型。
企業級場景落地:
先幹起來再説
大模型抽成兩個市場。一是巨頭把持的存量市場,二是行業企業開創的增量市場。
真正的增量在于企業級市場,特别是傳統行業。傳統行業都在做數字化轉型,而大模型和雲計算不太一樣。有一定規模的企業不會選擇接入雲端通用的大模型,而是會把大模型變成自己的核心數字資產。
大模型發展要順勢而為,服務產業數字化戰略。
大模型在中國應該高舉一面旗幟,即為傳統產業賦能。大模型應該 " 放低身段 ",去提升政府和企業的生產力和生產效率,要随企業走到各個場景中,跟企業實踐結合。
公有大模型的企業級場景落地會面臨如下七個問題:
(1)缺乏行業深度。當企業需要深入的行業知識時,通用大模型可能無法滿足。大模型像萬金油,但在復雜的行業問題上可能回答不了。它無法提供深刻的管理見解。
(2)不 " 懂 " 企業。大模型未與企業内部打通,因此無法真正理解企業的内部情況。
(3)數據安全隐患。大模型在訓練和應用時需要大量的數據,将核心數據輸入模型,特别是在公有模型中,可能導致數據泄露和濫用風險的出現。
(4)核心資產難以保護。企業都擁有自己的核心知識,不願意将其貢獻給通用大模型。它們更希望自主訓練、更新模型。
(5)幻覺和知識模糊。大模型可能出現虛假信息和不準确的知識。在某些領網域,這可能帶來致命的後果。比如,有人做出了一個醫學大模型,把所有的中醫、西醫的知識都訓練進去了,大模型随後 " 認真 " 地開了藥方,誰來驗證這個藥方的正确性呢?
(6)投入巨大。大模型的訓練成本高昂,這使得企業對投入產出比產生顧慮。
(7)無法保證所有權。企業在使用大模型時,與核心數據、核心資產緊密結合,因此需要确保自己擁有模型的所有權和控制權。
為了解決這些問題,大模型未來的發展趨勢是 " 六個垂直化 ":
(1)行業深度化。企業可開發行業深度模型,與通用模型不同,這些模型會更加專注于特定行業的知識和問題。
(2)企業個性化。大模型需要與企業内部的技術、商業秘密、核心知識融合,以實現個性化應用。
(3)能力專業化。企業内部可能需要多個專業模型,而非通用模型,以滿足不同領網域的需求。
(4)規模小型化。針對企業的專用模型可以采用較小規模的參數,降低成本并提高響應速度。
(5)部署分布化。大模型可以同時部署在雲端和終端,提供更靈活的應用場景。
(6)所有權私有化。企業需要擁有和控制自己的大模型,以确保數據和資產的安全。
大模型要完成從 " 天才 " 到 " 管培生 " 的轉變。垂直模型也要在經過市場驗證、有足夠能力的通用大模型基礎上訓練。在互聯網上先把一個通用的大模型基座訓練出來,相當于達到大學生水平,然後再落實到企業内部,效果就會好很多。
構建企業級垂直大模型的難度比通用大模型低了很多,不要等到大模型無所不能才開始幹,想清楚場景,現在就可以開始幹了!
堅持安全發展 " 四原則 ":
AI 普惠為人賦能
只有解決安全問題,大模型才能得到真正發展。
誰能解決大模型 " 幻覺 " 問題,就相當于摘下了 " 皇冠上的明珠 "。
第一,安全可靠原則:所有大模型都有漏洞,包括網絡安全方面的大模型竊取 ;數字安全方面的數據隐私攻擊、投毒攻擊 ;算法安全方面的提示注入攻擊、逃逸攻擊。
第二,内容向善原則:AI 要不作惡,不違背人類倫理道德,生成内容要安全,例如要解決 AI 換臉詐騙、生成惡意軟體、網絡釣魚問題等。
第三,結果可信原則:通過搜索校正、知識校正、對齊訓練,解決 " 幻覺 " 知識模糊、知識不能及時更新問題。
第四,能力可控原則:不要一開始就把控制權交給大模型 ;要确保 " 人 " 在決策回路;不能出現 " 不可撤銷 " 的後果。
當你做了一個大模型讓人人都能用時,無數人會想出很多方法讓這個大模型犯錯,這裏有特别多的安全問題,而做垂直大模型是最安全的。我們也在研究用大模型來 " 治 " 大模型,也就是把大模型的某些能力關在籠子裏。
大模型不是萬能的,它目前最成熟的能力是自然語言處理,其實就做兩件事:知識問答和寫作輔助。先把通用大模型最擅長、最成熟的能力用好,從辦公場景的 " 剛需 " 切入,做到 " 小切口、大縱深 ",從大模型最能提升企業辦公效率的點切入。循序漸進,先讓大模型擔當 " 副駕駛 " 角色,大模型可以導航、給建議,不會亂搶 " 方向盤 "。
大模型發展要 " 以人為本 ",堅持 AI 普惠的概念。
從上到下每個人都用起來,企業對 AI 的理解才會更深入。大模型作為生產力工具,應當為人賦能,而不是為了裁員。
大家對大模型要建立一個認知,你可以不用,但這件事不是虛假的風口或者泡沫,而是人工智能的發展到了拐點。未來 5-10 年會有一場產業革命,開發通用大模型并不是唯一之路,做產業大模型生逢其時,應該會有先發優勢,讓我們拭目以待。
END
本周直播預告: