今天小編分享的教育經驗:方軍:每個人都應該理解AI,尋找自己的道路,歡迎閲讀。
内容來源:2023 年 6 月 10 日,筆記俠舉辦的 "Ai 新視野,增長新勢能 " 新商業千人大會。
分享嘉賓:方軍,快知實驗室合夥人 &UWEB 教育合夥人。
責編 | 金木研
第 7516 篇深度好文:5453 字 | 11 分鍾閲讀
AI
我今天分享的主題是《把握生成式 AI 新範式:趨勢、原理與應用》。
今天我會盡量少談技術但又不可避免要提及不少技術名詞,但我想傳遞的一個關鍵信息與技術無關:
ChatGPT 所引領的生成式 AI 浪潮與你有關,你不一定需要自己做大模型或做應用研發,但你一定可以找到某個角度加入這一浪潮。我們每個人都應該嘗試去理解生成式 AI 的原理和可能性,然後找到一條屬于自己的路。
2022 年 11 月最後一天,ChatGPT 聊天機器人出現時,我這樣的熱愛新技術產品的人跑去使用了,但覺得沒什麼新鮮的。畢竟我們早前用過 GPT-2 寫過文章,也在用 GitHub 基于 GPT 的工具輔助編程。
這大概是一個小迭代,是對話 UI 的嘗試。很顯然,我很快就發現自己錯了,這小小的一步似乎激發了 AI 的潛能,并将 AI 的潛能帶到數以百萬計的大眾手中。
一、數字化浪潮來到轉捩點
生成式 AI 正引領一個新的數字化範式,且跟每個人都有很強的關系。在我看來,以 GPT 和影像生成為代表的生成式 AI 代表着第三波數字化浪潮。
第一波數字化浪潮是讓計算随手可及。這是一波延續至今的數字化浪潮,過去十年大數據、雲計算、企業數字化轉型仍在高速迭代。我們也看到 AI 的基礎是更強大的計算能力,比如 OpenAI 背後是微軟 Azure 雲和英偉達強大的 GPU 芯片。
第二波數字化浪潮是讓信息随手可及。互聯網和移動互聯網是我們所有人都親身參與的變化,比如你随手打開 APP,就可以看新聞、看視頻、看直播。信息随手可及不僅與資訊有關,它還改變了做生意或消費的方式,比如我們可以在網上買東西、叫網約車、叫外賣。
第三波數字化浪潮是讓知識随手可及。ChatGPT、谷歌 Bard、百度文心一言、科大訊飛星火等等聊天機器人讓我們能夠比過去用搜索引擎更方便地獲得「知識」——有問題我們問 AI,而它能夠針對性地進行回答。我們不會繪畫的人也能夠用咒語來讓 AI 繪畫,一下子擁有了新的能力。經訓練的大模型掌握了大量的的知識與能力,可以為我們所用。
上個月,ChatGPT 的月度用户量達到了 10 億,也就是半年時間超過 10 億。和它最初以五天時間超過 100 萬注冊用户一樣,這同樣創造了互聯網產品用户增長的新記錄。這标志生成式 AI 從研究與技術走向了大眾,成為每個人都在日常工作與生活中用的產品。
在這個讓知識随手可及的數字化新範式的風起雲湧之時,我們可以做什麼?我們發現,之前的數字化浪潮都呈現造輪子(建)和用輪子(用)兩個分支,建網站或 APP 大有可為,但用網站或 APP 同樣大有可為。
在這一波浪潮中,建模型和用模型也均可大有所為。同時,過去的數字化經驗也告訴我們,抓住先機的兩大關鍵是:
第一,洞悉新技術新產品的原理,了解真正可用的用途。
第二,在理解之後,勇于嘗試、把握先入優勢。
下面,我來談談我對生成式 AI 原理的理解。
二、GPT 的原理:預訓練、微調與提示語
生成式 AI 的兩大基礎功能:文字生成與影像生成。同時,兩種基礎功能是相似的,我們可以通過文字「提示語」,來指揮 AI 去生成文、生成圖。比如,你是一個服裝公司,你可以将風格用文字描述輸入給它,生成商品的展示圖。你可以用提示語指揮 AI 幫你撰寫賣商品所需的介紹文案。
由文字生成文字、由文字生成影像再往前進,就可以生成各種新東西:把影像動起來、将文字轉成聲音,就可以生成視頻。如果生成的文字是網站的代碼,再加上圖片、文字,就可以生成網站應用。等等。
以 OpenAI 公司的 AI 模型進化為例來看很有意思,我們會發現,由文字生成文字的所謂大語言模型、由文字生成影像的影像模型之間共同的根。
以 GPT-3 為例,用對話預料訓練它,形成了專門用于對話的模型,然後就有了我們用的聊天機器人。用文本加影像對它進行訓練,讓它了解文字與圖片之間的關聯,然後我們就可用它根據文字描述生成圖片。
接下來我們來專門看大語言模型這個部分,它是如何擁有知識與能力的?
首先,研究人員拿海量的文本對名為 Transformer 架構的人工神經網絡進行預訓練。在預訓練之後,它掌握關于字詞的概率,它有了這樣一種能力:你説了某個詞,它就能預測你的下一個詞是什麼。一個詞一個詞、一句話一句話地預測下去,它能流暢的方式説話了。
雖然它的實質只是下一個詞預測器,但它的表現的确像掌握了一定的知識、有語言能力,甚至有推理能力。
接着,一個關鍵的轉變就出現了。既然我們給一句話,它可以按照這句話所開始的模式接着説下去。那麼,如果我們給定一句問句,它是不是同樣可以説下去,但現在它在對問句進行回答了。
我們輸入模型的提示語(Prompt)就有了新的含義,最初它的意思是演員忘詞時的提詞,現在它變成了我們提出的問題(請問這個問題如何解答)或命令(請幫我解答這道題、請幫我編寫這個程式)。提出的問題或發出的命令,就是我們給 AI 模型的指令。
之後,研究者開始着力于提升 AI 模型能夠更好地對人類的指令進行回應。這其中主要的方法是用指令、輸入、輸出所組成的指令集數據來對模型進行補充訓練,也叫指令微調。
ChatGPT-3.5 就是用所謂的人類反饋強化學習(RLHF)進行的微調訓練,它能更好地響應人類指令,同時也能夠更好地與人類價值觀對齊。總而言之,到了這個階段之後,AI 模型就從下一個詞預測器變成了能夠回答問題或指令命令的強大機器。
換個每個人都很容易理解的視角再看:公司招聘了聰明的應屆畢業生,他在學校裏學到了很多知識。他最初能做的事情是,用自己的知識預測下一句話該説什麼。幾個月短暫适應之後,他能夠實際參與工作了:你向他提問和給他命令,他回答問題和完成任務。
但這個優秀的人才還是不太了解本行業、本企業,我們可以對他進行培訓,當然也包括幹中學,他很快就從大學畢業生變成了本企業的骨幹了。
在 2022 年底、2023 年初,不少人認為在大語言模型上 OpenAI 遙遙領先,其他人的追趕需要時間。但 2023 年 3 月之後,人們的看法變了,原因在于,開源模型以短短幾個月的時間走完了 OpenAI 幾年的探索過程。
以 Meta 公司開源的 Llama 模型為例,它 2 月底開源,3 月斯坦福大學的研究人員基于它微調出 Alpaca 模型,之後一個大學與企業界聯合團隊進一步微調出對話模型 Vicuna(也就是能像 ChatGPT 一樣對話),很快,采用人類反饋強化學習的開源模型如 Stable Vicuna 也出現了。
圍繞着 Llama,現在有幾百個開源模型在進行探索。同時,由中國清華大學開源的 ChatGLM 模型也有超級活躍的社區,沙特的一家大學則推出了 Falcon 模型,與 Meta 公司開源模型不同,這個模型可用于商用。
大語言模型等生成式 AI 模型将知識變得随手可及,而在它發展的過程中,它本身的知識實際上在過去幾個月也變得随手可及。
當然,這背後還是有很多訣竅的,是眾多研究人員和產業公司在探索的,比如數據管道、性能評估、模型安全性等。眾人目前都在沿着 OpenAI 公司開辟的道路前進:通過人類反饋強化學習的方法,來讓模型更好地回答人的指令,同時跟人類的價值觀對齊。
總而言之,GPT 模型看着很復雜,但總體框架可看成包括分兩步:
第一步,進行所謂的預訓練及微調,得到一個人工神經模型。第二步,将模型的參數部署在伺服器上供公眾使用,這個過程通常叫提供推理服務,這時,我們用户向它提問、給它指令,得到回答。
如果能力視角看,我們也看到同樣的兩步:第一步,模型在預訓練後擁有了比如語言理解、文本生成、知識問答、邏輯推理、數學能力、代碼能力、多模态能力等上遊能力;第二步,我們将這些能力用于下遊應用,目前主要是問答機器人或應用助手的形式用于比如語言翻譯、輔助寫作、輔助編程、一對一教育、辦公自動化等場景。
三、如何用好 GPT:用其所長,避其所短
要用好 GPT,我們要了解它擅長什麼,知道它不擅長什麼。另外,我們還要掌握向它提出問題或發出命令的能力,提問能力越強,我們得到的結果就越好。
很多人都已經知道了,GPT 等 AI 大模型的最大缺是它會是胡説八道,也就是所謂出現幻覺,編造回答。這實際上是它的 " 特性 " 還沒有完全訓練好的問題,這是因為,當我們試圖要求它能一定程度上 " 生成 " 新的内容時,我們實際上鼓勵它有在不相關的信息間建立新聯系的能力。
因此,要用好 GPT 等 AI 大模型,關鍵就是要掌握提問的能力——能夠高效地提問引導出盡量好的答案,同時提問者又要對答案的優劣好壞有判斷力。想真正用好 GPT,最關鍵的是掌握向它提問的技巧。
比如,你跟它説,幫我寫篇關于故宮 600 年的文章,對不起,它寫不好,因為你根本沒有觀點與信息給它。但如果你跟它説,我的公司的情況是這樣,我的產品是這樣,你幫我寫一個產品介紹,他就能夠幫你寫出來。
1. 與大模型打交道:提示語
向 AI 提問的基本技巧是,你要給它盡可能多的信息,同時就它的回答進行反饋、調整,多次循環迭代後,你可能可以得到你想要的回答。在我認為,提問分為 3 個層次:
第一層次正确的提問,懂得提問 3 要素:詳盡的背景信息、具體的問題描述、清晰的解答要求。
第二層次進階的提問,給它少量樣本提示、調整提示語重復提問、拆解任務分步提問。
第三層次高階的提問,外挂知識庫、與其他工具聯合使用、多輪互動完成復雜任務。
2. 運用場景
具體來説,我們可以讓 GPT 在哪些場景幫助我們呢?
① 頭腦風暴會
比如,很多公司會花大量時間來開頭腦風暴會,用好 GPT 可以幫助我們節省大量時間。
将 GPT 用于頭腦風暴會的一種方式是:不用團隊來開會,你讓 GPT 模仿不同的角色,客户 A、客户 B、公司老板、具體事務的執行人,還可以請它扮演一個專門提反對意見的角色。這時,你一個人就可以變成一個團隊,一個人就可以進行頭腦風暴。
第二種方式是,你可以讓團隊一起來頭腦風暴,但讓團隊成員每人都借助 GPT 的輔助,每個人帶 10 個想法來會議現場。過去,很多人帶不來這麼多想法;現在,他可以想一兩個想法,然後問 GPT,最後每個人都可以輕松帶很多新想法來了。這樣,可以大幅度提高頭腦風暴會的效率,就跟有人説的,用好 GPT,可以幫團隊每次頭腦風暴會節省 100 個小時。
② AI 旅遊顧問
我們再來看一個稍微復雜的場景,假設你是一家高端的旅遊服務公司,客户説,我想要去哪旅遊,我有五六個人,我有什麼需求。
這時,我們可以用一個專門的聊天機器人跟他進行對話,用 GPT 的對話能力把客户的需求問清楚。當然,也開始人機協同,由人類顧問用 GPT 作為輔助,跟客户對話詢問需求。
我們知道,GPT 有分析和推理的能力,有了客户需求之後,我們可讓 GPT 去進行分析、将旅遊行程設計的大任務拆成一一系列任務,分别去在内部、外部進行查詢,比如去外部查詢機票酒店等信息。
之後,我們再運用 GPT 的文字能力,請它将收集到的資料整合成一個提案。這時,我們就可以把提案拿給客户看,如果客户對某個旅遊環節設計不滿意,我們再把這個流程走一遍直到客户滿意。最終,我們再将 GPT 與比如排版工具、預定工具等聯合使用,幫客户預定酒店、機票、各地的車輛與導遊等,同時生成詳盡的最終方案手冊給到客户。
要注意的是,在這樣的場景裏,并不是全部交給大模型就可以了,要靠人類專業人士來有效地運用,我們才能用 GPT 來提升企業服務客户的能力。
③ 進階使用
目前還處在大模型廣泛應用的初期,但有些進階使用的方向已經被證明是必需的,眾多的技術團隊和企業在嘗試着。
第一種,使用微調模型。經預訓練的大模型一開始是不懂行業中的專有知識,我們可以通過指令微調訓練來形成适合本行業、本企業的模型,用它來服務客户。
企業會考慮微調訓練出自己的模型,而不是采用公開的模型服務,也是因為考慮到數據問題,一方面數據是企業的關鍵資產,你不願與其他企業分享,另一方面數據也涉及到可能客户隐私,企業不能與其他人分享。
第二種,為模型外挂知識庫。現在不少 AI 面向 C 端的產品做法是,用公開的模型服務或自己的微調模型,但又額外附加一個知識庫,當用户提問或提出要求時,應用會先去知識庫進行匹配,然後将匹配出來的信息交由 GPT 處理。
這説起來容易,實踐中出好的效果還是很難的。通常來説難點主要有兩個方面:第一,怎麼把自己本來雜亂的數據變成可以讓 GPT 理解的數據。第二,GPT 的性能(即回答的質量)究竟能拿到多少分,能否滿足用户的需求。
這裏有很多工程上的具體實踐,也有很多研究者的巧思。比如,用户問了問題,我們用問題在知識庫做相關性匹配時,匹配不出想要的資料怎麼辦?去年底有一篇論文提出的做法(HyDE)已經變成了行業的普遍實踐。
它的做法是,我們可以拿問題先去問 GPT,得到一個(可能質量不佳的)假設性回答,然後我們拿這個假設性回答去知識庫進行匹配,就可以匹配出更相關的資料。
之後,再拿着這些資料去問 GPT,這時可以得到好得多回答。這個回答的效果與針對一個細分領網域、對模型進行相對要復雜一些的微調得到的結果是相當的。總的來説,GPT 等大語言模型的研發和應用都欣欣向榮,但目前所有人都在努力地進行各種嘗試,既有研究上的嘗試,也有工程上的嘗試,也有應用上的嘗試。
四、結語
今天,我們處在一個的新範式轉移中,海量的知識被壓縮進了模型,讓得知識随手可及。我們每個人、每個企業都有了一個擁有強大的知識與能力的機器助手。
現在,每個人都應該去了解生成式 AI,理解它真正的用途,然後從你自己的角度切入進去。
這是我今天的分享,謝謝大家。
分享、點贊、在看,3 連 3 連!