今天小編分享的科學經驗:一次10萬token!GPT4最強對手史詩更新,百頁資料一分鍾總結完畢,歡迎閱讀。
号稱 ChatGPT" 最強競争對手 " 的Claude,今天迎來史詩級更新——
模型記憶力原地起飛,現在1 分鍾看完一本數萬字的小說,已經不在話下。
消息一出,評論區直接炸了,網友們蜂擁而至,"woc 連連 ":
瘋了瘋了!
事情進展得太快了,又是為人類擔心的一天!
原來,這次更新,将模型的上下文視窗token 數提到了足足 10 萬,相當于 7.5 萬個單詞!
這意味着,大模型 " 記性 " 不好的缺陷現在得到補強,我們可以直接丢給它上百頁上萬字的材料,比如财報、技術文檔甚至是一本書。
而它都能在一分鍾之内幫你分析總結完畢!
要知道,之前市面上幾乎所有 AI 聊天機器一次都只能讀取有限數量的文本,理解長資料裡的上下文關系非常災難。
而我們人類自己去處理大篇幅的文本又太慢了,比如光是要讀完10 萬 token 的材料,就需要大約 5 個多小時,更别提還要花更多的時間去理解去消化才能進行總結。
現在,Claude 直接一把搞定。
這波,簡直是 " 五雷轟頂 "、" 反向開卷 "GPT-4,因為,剛剛後者也不過才做到3.2 萬token。
所以,一次性比 GPT-4 多出 3 倍的處理量,Claude 效果提升究竟如何?
Claude 重磅更新:一次記憶 10 萬 token
據 Anthropic 官方介紹,更新後的 Claude-100k 版本,對話和任務處理能力雙雙得到極大提升。
一方面,是 " 一次性可處理文本量 " 的增加,直接拓寬了 Claude 的可從事崗位類型。
之前,大模型最多用來處理個幾十頁的文檔。
現在,Claude 已經能速讀公司财報年報、技術開發文檔、識别法律檔案中的風險、閱讀上百頁研究論文、乃至于處理整個代碼庫中的數據。
最關鍵的是,它不僅能通讀全文總結其中的要點,還能進一步完成具體任務,如寫代碼、整理表格等。
例如,快速理解幾百頁的開發文檔,并根據文檔開發應用程式 demo。
以 Claude 之前沒見過的一項新技術 LangChain 作為示例:
當交給它一個240 頁的 LangChain API 報告後,要求它快速給出一個 LangChain 的 demo 演示:
幾乎沒用多少時間,Claude 就快速給出了一個基于 LangChain 開發的應用程式 demo:
又例如,甩給它一個漫長但又不得不聽的5 小時知識播客:
它不僅能将重點轉成文字提取出來,還能快速整理表格,對觀點進行分析:
難度增大一點,30 頁的研究論文也能很好地處理,甚至能準确指定它整理某一章節的某一段落:
除此之外,還能幫導演處理劇本選址一類的問題。如給出《沙丘》的電影腳本,問 Claude 最适合拍攝的地點,它很快就能給出幾個對應的參考地址:
最後,官方還給出了一個《了不起的蓋茨比》案例,雖然沒有 demo 演示。
他們将這篇喂給 Claude 後,替換了其中一個角色 Mr. Carraway,把他的角色變成 "Anthropic 裡的一位工程師 ",再交給 Claude 閱讀,讓它找不同。
幾乎只用 22 秒鍾,Claude 就讀完這本書,并發現了 Mr. Carraway 的 " 不同身份 "。
另一方面則是 " 記憶力 " 的增加,帶來了對話題掌控度的提升、以及聊天能力的提升。
此前大模型經常會出現 " 聊着聊着忘了話題 " 的情況,對話視窗總字數超過幾千字後,開始胡言亂語。
舉個栗子,如果你用大量提示詞設定了一個 ChatGPT 版貓娘,那麼它開始聊天後,可能幾個小時就忘記了自己和你說過的話,開始表現出一些 " 出軌 " 的迹象(手動狗頭)
但現在,擁有一次 10 萬 + 個 token 記憶力的 Claude,則不太可能出現這種情況,反而能牢牢記住和你聊過的話題,連續交談上好幾天。
那麼,目前我們能通過什麼方式用上最新版 Claude 呢?
API 和網頁版均已上線
Anthropic 先是宣布推出了 Claude-100k 的 API 版本,之後又火速上線了網頁端。
△Anthropic 工程師
所以無論你是用網頁端還是用 API,目前都已經可以直接體驗這個擁有 " 超長記憶力 " 的 Claude 版本。
很快啊,已經有網友迫不及待玩上了。
像 OthersideAI 的 CEO Matt Shumer,就試用了一下網頁端的 Claude-100k 總結技術報告的效果。
他先測了波Claude-9k的效果,發現它面對長達上百頁的 GPT-4 技術報告,還是會出現 " 幻覺 ";随後測試新版Claude-100k,發現它給出了有理有據的估計:
GPT-4 的參數量級大約在5000 億左右!
這是它的推測過程:
不知道這波 OpenAI 的奧特曼會不會出來辟謠(手動狗頭)。
還有一位 Assembly AI 的老哥,測試了一下 Claude-100k 的API 版本。
在視頻演示中,他用 Claude-100k 總結了一下 Lex Friedman 的5 小時長播客(内容與 John Carmack 有關),效果看起來也非常不錯:
但無論是網頁版還是 API,都還不是我們能免注冊直接試玩的版本。
之前我們說的不用注冊、不用申請、不用 " 騷操作 " 就能玩、體驗也很不錯的是slack 端,它的添加方法我們在之前的文章中介紹過,非常簡單。
遺憾的是,目前它還是 Claude-9k" 體驗版 "。
所以,總結一下就是,這個 Claude-100k 的版本:
可以用 API 的方式體驗,不過不是免費的;
網頁版也行,但需要你有試用資格,沒有就去申請,等一等;
Slack 端還不行,只是個體驗版。
反向開卷 GPT-4,網友:卷對了方向
昨天,谷歌剛剛在 I/O 大會上宣布了數項重大更新,包括:
重構谷歌搜索、開啟 AI 對話
發布大模型 PaLM 2
全面開放 Bard,不用排隊直接玩
……
這被視作針對微軟和 OpenAI 的一系列反擊。
現在,來自 Anthropic 的 Claude 緊随其後,發布如此重大更新,直接反向開卷 GPT-4 ——
有網友評價:
Claude 卷對了方向。
确實,目前大部分語言模型普遍都只能處理 2-8k 的 token 量,大家都在苦苦追尋提高模型記憶力的辦法。
比如上個月那篇可将 Transformer token 上限擴展到 100 萬甚至 200 萬的論文就引起了非常大的關注,不過網友測試效果似乎不太理想。
現在,Claude 直接 " 業内第一人 " 宣布做到了 100k,并拿出來給大家用,很難不讓人稱贊。
除此之外,還有網友 " 站得更高 ",稱:
資本主義之間的競争果然很美妙。
言外之意,卷得好啊卷得妙。沒有巨頭和各垂直企業之間的你争我搶,我們哪能在短短兩天之間又目睹了如此多和重大的進展呢?
诶,不過話說回來,鑑于 Anthropic 是由當初不滿意 OpenAI 與微軟走得太近的幾位前員工創立,而谷歌也斥資 3 億美元投資了這家公司。
大膽猜測:
這次兩人前後腳的 " 一唱一和 ",是不是提前商量好的?
參考鏈接:
[ 1 ] https://techcrunch.com/2023/05/11/anthropics-latest-model-can-take-the-great-gatsby-as-input/
[ 2 ] https://twitter.com/AnthropicAI/status/1656700154190389248
[ 3 ] https://www.anthropic.com/index/100k-context-windows
[ 4 ] https://twitter.com/mattshumer_/status/1656781729485529089
[ 5 ] https://www.youtube.com/watch?v=2kFhloXz5_E