今天小編分享的科技經驗:吳恩達最新預測:關于AI,這些事未來十年不會變,歡迎閱讀。
金磊 發自 凹非寺
量子位 | 公眾号 QbitAI
2024 年,AI 的發展會有怎樣的改變?
在吳恩達最新的一封來信中,他認為有幾件事情在接下來十年内都不會發生改變。
(以下是吳恩達來信原文)
親愛的朋友們,
人工智能的發展速度超過以往任何時期,這一現象令人振奮。然而,快速變化可能導致迷失方向。在這種情況下,遵循傑夫 · 貝佐斯(Jeff Bezos)的建議是非常有益的,不僅要考慮變化中的因素,還要思考那些保持不變的因素。如果事物沒有改變,投入精力和努力就更加值得。
以下是我相信 AI 在未來十年不會改變的一些事情:
我們需要社區。擁有朋友和盟友的人比孤身前行的人表現得會更好。即便人工智能領網域每周都帶來突破性進展,擁有朋友幫助你分辨真實和炒作、測試你的想法、提供相互支持,并與之共同創造,将使你處于更有利的地位。
知道如何使用 AI 工具的人工作效率更高。知道如何操縱數據的個人和企業可以更有效地了解真相、做出更好的決策并取得更多成就。随着人工智能的不斷進步,這一點只會變得更加真實。
人工智能需要好的數據才能良好運作。正如人類需要好的數據來做出決策,從追求何種營銷策略到決定孩子的飲食,人工智能在我們的算法不斷擴大、演變和改進的過程中,也同樣需要好的數據。
那麼上述三點對我們每個人意味着什麼?
讓我們繼續構建 AI 社區。這很重要!我希望你能與他人分享你所學到的東西,互相激勵,并繼續尋找朋友和合作者。
不斷學習!最好讓學習成為一種習慣。它可以讓你更有效率,還有很多其他的好處。如果你正在考慮 2024 年的新年決心,那就把你的學習目标包括進去。随着人工智能的不斷發展,每個人都需要一個計劃來跟上這一浪潮。
繼續培養以數據為中心的人工智能實踐。随着企業采用越來越多的人工智能工具,我發現最重要的做法之一是控制自己的數據。我認為這對個人來說也會越來越重要。
雖然以上三點與人工智能有關,但我想分享另外兩件事,不幸的是,我相信它們在未來十年将保持不變:⑴氣候變化将繼續成為人類面臨的重大挑戰。⑵貧窮,許多人幾乎(甚至可能買不起)基本必需品,仍将是一個問題。我将繼續思考人工智能氣候建模如何幫助前者,以及我們如何利用人工智能來提升每個人的生活質量。
以上便是吳恩達對于未來 AI 發展的最新觀點。
而就在新年伊始的這幾天,AI 圈中的多位大佬們也陸續發表了他們對于今年人工智能技術發展的預測。
被 LeCun 點贊的八大預測
最近,Meta 一位研究員 Martin Signoux 寫下了他認為 AI 在今年發展中的八大預測,而這些預測也得到了 LeCun 的高度認可。
(以下是 Martin Signoux 預測的原文)
一、AI 智能眼鏡會成為現實
随着多模态技術的興起,領先的人工智能公司将加倍投入人工智能優先的可穿戴設備。
還有什麼比眼鏡外形更适合托管 AI 助手的呢?
眼鏡腿靠近耳朵來傳遞音頻,攝像頭靠近眼睛來捕捉看到的輸入,它們解放了我們的雙手并且佩戴起來也很舒服。
我們和 RayBan 一起引領着這波潮流,但想想最近的 OpenAI 和 Snapchat 傳聞……我們的故事才剛剛開始。
二、ChatGPT 之于人工智能助手,不會像谷歌之于搜索
2023 年是以 ChatGPT 作為開始,以 Bard、Claude、Llama、Mistral 和數千個衍生品作為結束。
随着商品化的繼續,ChatGPT 将随着參考估值修正而消失。
三、再見 LLM,你好 LMM
大型多模态模型(LMM)将持續湧現,并在熱議中取代大型語言模型,包括多模态評估、多模态安全等等。
此外,LMM 是邁向真正通用人工智能助手的一塊墊腳石。
四、沒有重大突破,但各方面都有所改善
新模型不會帶來真正的突破(GPT5 不會出現),大型語言模型仍将具有内在限制并容易產生幻覺。我們不會看到任何飛躍進展讓它們在 2024 年能足夠可靠地 " 解決基本通用人工智能(AGI)問題 "。
迭代改進将使它們 " 足夠好 " 地完成各種任務。RAG、數據管理、更好的微調、量化等方面的改進将使 LLM 在許多用例中足夠魯棒 / 有用,從而推動各行各業各種服務的采用。
五、小即是美
小型語言模型(SLM)已經存在,但成本效率和可持續性的考慮将加速這一趨勢。
量化也将大大改善,推動消費者服務的設備上集成的主要浪潮。
六、開源模型将擊敗 GPT-4,開源閉源之争将逐漸消失
回顧過去 12 個月開源社區所取得的活力和進步,很明顯,開源模型将很快縮小性能差距。
我們在 2023 年底結束時,Mixtral 和 GPT-4 在 MMLU(多模态學習理解)測試中的差距僅剩 13%。
但最重要的是,大家都意識到了開源模型将持續存在并推動進步,它們将與專有模型共存。
七、基準測試仍然會是個難題
沒有一套基準測試、排行榜或評估工具成為模型評估的終極選擇。
相反,我們将看到一系列的改進(就像最近的 HELM)和新的倡議(如 GAIA),特别是在多模态方面。
八、相比于現存風險,關于存在性風險的讨論不會太多
雖然 2023 年 X-risks 成為了頭條新聞,但公眾辯論将更多地集中在當前的風險和争議上,比如偏見、假新聞、用戶安全等問題。
Runway CTO:用新工具講新故事
Runway 聯合創始人兼 CTO Anastasis Germanidis 也發表了他對于今年 AI 發展的看法。
(以下是 Anastasis Germanidis 預測的原文)
2023 年是廣泛應用人工智能系統(涵蓋文本、影像、視頻、音頻和其他模态)發展的轉捩點。
僅在 Runway 公司,我們就看到了如 Gen-1 和 Gen-2 這樣的視頻生成模型的發布,以及使這些模型具有新型創造控制形式的工具。
在未來一年,我預計在以下幾個領網域會看到持續的進展:
視頻生成:過去一年,生成視頻模型(文本到視頻、影像到視頻、視頻到視頻)首次公開發布。在來年,這些模型的質量、通用性和可控性将繼續迅速提高。到 2024 年底,互聯網上相當一部分視頻内容将在某種程度上利用這些模型。
實時互動性:随着大型模型運行速度變快,我們開發出更多結構化控制它們的方法,将開始看到圍繞它們出現更多新穎的用戶界面和產品,這些界面和產品超越了常見的提示到 x 或聊天助手範式。
自動化 AI 研究:開發者們已經接受了基于大型語言模型的編碼助手,如 GitHub Copilot。但是,很少有工具被設計用來專門加速 AI 研究工作流程;比如,自動化開發和調試模型代碼、訓練和評估模型等重復性工作。明年将出現更多這樣的工具。
更多關注系統:大量的對話集中在單個網絡的端到端訓練能力上。然而,在實際應用中,部署在現實世界場景中的 AI 系統通常由一系列模型的管道驅動。将出現更多用于構建這種模塊化系統的框架。
除了技術進步之外,構建這些系統最有意義的部分是,随着每次更新和能力的增強,新的閱聽人被引入其中,講述了以前沒有講過的新故事。我很興奮地看到這将在未來一年繼續發生。
斯坦福副教授:基礎模型的透明度
斯坦福大學計算機科學副教授 Percy Liang,則是将關注點聚焦到了基礎模型的透明度上。
(以下是 Percy Liang 預測的原文)
僅僅一年前,ChatGPT 讓世界意識到了基礎模型的力量。但這種力量不僅僅體現在耀眼、令人瞠目的演示上。基礎模型将以與計算和互聯網在上一代社會變革中相似的方式,滲透到我們生活的每個領網域、每個方面。考慮到這種預期影響的廣度,我們不僅要問人工智能能做什麼,還要問它是如何構建的。它是如何被管理的?誰來決定?
我們真的不知道。這是因為人工智能的透明度正在下降。在 2010 年代的大部分時間裡,開放是默認的取向:研究人員發布論文、代碼和數據集。在過去三年裡,透明度減弱了。
關于最先進模型(如 GPT-4、Gemini 和 Claude)的公開信息很少:用于訓練它們的數據是什麼?誰創建了這些數據,勞動實踐如何?這些模型與哪些價值觀相一致?這些模型在實踐中是如何使用的?沒有透明度,就沒有問責,我們已經見證了缺乏透明度在社交媒體等以前一代技術中產生的問題。
為了使透明度評估嚴謹,基礎模型研究中心引入了基礎模型透明度指數,用于描述基礎模型開發者的透明度。好消息是,許多透明度方面(例如,擁有适當的文檔)是可實現的,并且與公司的激勵相符。在 2024 年,也許我們可以開始逆轉這一趨勢。
目前,政策制定者普遍認識到需要管理人工智能。除了透明度,首要優先事項之一是評估。事實上,沒有科學基礎來理解這些模型的能力和風險,我們就是盲目的。大約一年前,基礎模型研究中心發布了綜合評估語言模型(HELM),這是一個評估基礎模型(包括語言模型和影像生成模型)的資源。現在我們正在與 MLCommons 合作,開發一個安全評估的行業标準。
但這個評估很難,尤其是對于通用、開放式的系統。你如何覆蓋幾乎無限的使用案例和潛在危害空間?你如何防止操縱?你如何以公眾能理解的方式呈現結果?這些都是開放的研究問題,但我們需要在短時間内解決這些問題,以跟上人工智能的快速發展。我們需要整個研究社區的幫助。
想象 ChatGPT 式助手将成為我們獲取信息和做出決策的主要方式,并不遙遠。因此,基礎模型的行為——包括任何偏見和偏好——是重要的。
據說這些模型與人類價值觀相一致,但我們談論的是哪些價值觀?再次,由于缺乏透明度,我們無法看到這些價值觀是什麼,以及它們是如何确定的。我們能否想象一個更民主的過程來引出價值觀,而不是由單一組織做出這些決定?重要的是這個過程的正直性和合法性。
OpenAI 希望在這方面資助工作,Anthropic 也有一些這方向的研究,但這些都還處于早期階段。我希望其中一些想法能夠被納入生產系統。
微軟 CTO:為下一年的指數增長做好準備
微軟 CTO Kevin Scott 也做出他對 AI 在今年發展的一些預測。
(以下是 Kevin Scott 預測的原文)
毫無疑問,2023 年是我在相當長的職業生涯中見過的最激動人心、最有趣的技術年份。
值得一提的是,我很确定在 2022 年結束時我也說過類似的話,我懷疑我明年這個時候可能還會說同樣的話,以及在可預見的未來的每一年——重點是,現在的人工智能領網域,我們正在經歷一個持續的指數級增長時期,這可能代表了我們所見過的最深刻的技術進步。
而且這只是開始。現代生成型人工智能仍處于嬰兒期,我們在學習中前行。盡管感覺我們已經和它們共存了很長時間,但 2023 年實際上是像 ChatGPT 和 Microsoft Copilots 這樣的強大人工智能工具真正有意義地進入公眾視野,作為有用的助手讓人們的生活更輕松的第一年。
到明年結束時,我們将擁有許多新的體驗、應用和工具,為全世界越來越多的人帶來層層疊加的好處。盡管人工智能增長的炒作幅度和加速率可能讓人們專注于每一個接下來的 " 下一個大事件 ",但如果我們稍微退後一點,就更容易看到我們面前的機會比我們已經實現的要大得多。
因為我們只能每隔幾年左右才能體驗到指數曲線的產物,最近一次是 GPT-4,我們很容易在這段時間忘記增長的速度實際上有多驚人。而且,按照我們人類的本性,我們很快就适應了,并很快就将每一套新出現的瘋狂可能性視為理所當然。
因此,我對所有在未來一年從事人工智能和技術工作的人的希望是,我們需要意識到,指數曲線的下一個樣本即将到來,并适當地為(肯定會令人難以置信的)結果做好準備。
願 2024 年繼續為我們所有人帶來發現的激動和持續的創新。
那麼,你認為今年 AI 的發展還有什麼值得我們期待呢?