今天小編分享的科學經驗:ChatGPT最強競品重磅更新,免費可用!第一手實測在此,網友:有個性,歡迎閲讀。
在 OpenAI 祭出 GPT-4 的 API 和 " 最強插件 " 代碼解釋器後,競争對手顯然坐不住了。
就在剛剛,Anthropic 旗下Claude發布第二代——沒錯,就是被外界評價為 GPT-4 最強競品的那一個。
淺劃一下這次更新動作的重點:
免費,不用排隊,自己用郵箱注冊即可登陸。
科技大佬們打起來真是妙啊,媽媽再也不用擔心 ChatGPT/GPT-4 将我拒之門外後,打工或寫作業時沒有 AI 用了!
英偉達 AI 高級科學家 Jim Fan 火速嘗鮮,并在推特上分享了自己的 Claude2 用户體驗。
關于 Jim Fan 老師談到的 Things you should know,量子位挑了些重點:
免費使用!
Claude2(100K 上下文)比 GPT-4-4K 便宜了 4-5 倍。
實際可以支持 20 萬 token 上下文,約 15 萬個單詞,輸入一本書不在話下;不過現在只開放了 10 萬 token 長度。
知識更新鮮,知識截止時間是 2023 年初,而 GPT-4 停在 2021 年 9 月;
可以将多個文檔導入後,詢問文檔之間概念的關系,支持 txt、pdf 多種格式(ChatPDF 之類的應用,危)
代碼、小學數學能力,比初代 Claude 有所進步。
國内 AI 博主海辛也在微博上驚訝連連。
因為上傳自己的簡歷後,Claude2分析出了她的 MBTI 人格:
除了他們,第一波衝進網頁體驗 Claude2 的網友們已經在激情分享了自己的體驗感:
不錯子,和 GPT-4-32k 比,Claude2 的回答更個性化~
于是乎,量子位先衝了一波網頁對話,來看我們的人肉測驗——
咦,Claude 更新了?注冊一個試試
首先奉上最有節目效果的弱智吧 Benchmark,給讀者朋友們開開胃。
問的問題無外乎弱智吧的典中典,譬如 " 咖啡算不算豆漿 "" 數據線可不可以暫存數據 " 之類的。
看到 Claude2 一本正經地回答弱智吧問題,就會發現 AI 還是太單純了,看不出人類的小心機。
不過正經地看,這些回答倒也沒毛病。
上面的兩個問題算 Claude2 順利過關,那麼如果提問一些更無厘頭的問題呢?
問,玉皇大帝到底住在九重天的哪一層?
答,從立足點來看,玉皇大帝所在的天庭,應該處于平流層,因為 " 這更符合天庭聖潔的定位 "。
當然,沒有人能評判這個回答到底對還是錯,但至少 Claude2 的這一通分析,還算有理有據。
開胃小菜就展示到這裏,下面上正餐!
長文檔是本次更新的一大亮點,這一點已經被推特網友們驚呼鵝妹子嘤了。
比如上傳兩個 pdf,可以看到,Claude2 可以從兩個 pdf 文檔中做出摘要,這兩個文檔一個關于 " 語言流變模式 ",一個關于 " 對稱性 ",并且将文檔内容分點列在對話框中:
此前,量子位就出過讓初代 Cladue-100k 版本在 20 秒速通 92 頁論文的攻略《白嫖 GPT-4 最強競品!》。
不只是較大的文檔,根據 Claude2 開放的 10 萬 token 的上下文來看,一次性上傳一本書讓它讀,也是小菜一碟。
對普通用户來説,現在不僅能夠上傳長文檔,還可以用上傳的檔案構建自己的知識庫,對 Claude 翻閲文檔後進行回答,真的是非常實用。
以至于内心出現一個疑問,會不會在 ChatGPT 攤薄 Jasper、Notion 等公司的蛋糕後,Claude 也要對 ChatPDF 類工具下手了?
最後,我們為大家奉上今天的餐後甜點:讓 Claude2 來寫個程式試試。
為了考驗 Claude 設計算法的能力,我們選擇了一種古典密碼,讓它試着寫個解密程式出來。
這種密碼叫做維吉尼亞密碼,可以理解成二維的凱撒(位移)密碼,其中包括密鑰。
舉個例子説明一下它的算法:
假如明文是 B,密鑰是 C,B 是字母表中第二個,那麼從 C 開始數的第二個字母 D 就是密文。
如果數到了 Z,就重新從 A 開始接着數,密鑰長度不足時則進行循環。
解密自然就是把加密過程倒過來。
Claude 輸出了這樣的代碼(C++,下同):
#include <iostream>
#include <string>
using namespace std;
string decryptVigenere ( string ciphertext, string keyword ) {
string plaintext;
int keywordIndex = 0;
for ( int i = 0; i < ciphertext.length ( ) ; i++ ) {
int p = ( ciphertext [ i ] - 'A' ) - ( keyword [ keywordIndex ] - 'A' ) ;
p = ( p + 26 ) % 26;
plaintext += ( char ) ( p + 'A' ) ;
keywordIndex = ( keywordIndex + 1 ) % keyword.length ( ) ;
}
return plaintext;
}
int main ( ) {
string ciphertext;
cout << " 請輸入密文 :";
cin >> ciphertext;
string keyword;
cout << " 請輸入密鑰 :";
cin >> keyword;
string plaintext = decryptVigenere ( ciphertext, keyword ) ;
cout << " 明文是 :" << plaintext << endl;
return 0;
}
我們把 "CHATGPT" 用密鑰 "CLAUDE" 進行了加密,密文是 "ESANJTV",并嘗試用 Claude 給出的程式解密。
一次就成功了,看來 Claude 的代碼能力的确沒讓我們失望。
這個問題可能有些簡單,我們再加大難度試試。
我們試着從 LeetCode 中找了一道中等難度的問題,人類解這道題的通過率大概是 60%。
給定一個長度為 n 的整數數組 height 。有 n 條豎直的線,第 i 條線的兩個端點是 ( i, 0 ) 和 ( i, height [ i ] ) 。找出其中的兩條線,使得它們與 x 軸共同構成的容器可以容納最多的水(容器不能傾斜)。返回容器可以儲存的最大水量。
這樣説可能不那麼容易想象,下面的這張圖或許更加直觀:
原題中給出的示例一共有 9 條線,高度分别為 "1,8,6,2,5,4,8,3,7",相應的最大水量是 49。
我們給 Claude2 的 Promot 是醬嬸兒的:
寫一個 C++ 程式解決這個問題,不要自己設定初始值,讓用户輸入:(接上面的問題)
Claude2 給出了這樣的答案:
#include <iostream>
#include <vector>
using namespace std;
int maxArea ( vector<int>& height ) {
int max_area = 0;
int n = height.size ( ) ;
for ( int i = 0; i < n; i++ ) {
for ( int j = i + 1; j < n; j++ ) {
int width = j - i;
int h = min ( height [ i ] , height [ j ] ) ;
max_area = max ( max_area, width * h ) ;
}
}
return max_area;
}
vector<int> height;
int input;
cout << " 請輸入一系列整數 :" << endl;
while ( cin >> input ) {
height.push_back ( input ) ;
}
cout << " 最大面積為 : " << maxArea ( height ) << endl;
return 0;
}
}
我們沒讓 Claude2 專門調整輸入和輸出格式,所以沒有提交給 LeetCode,而是直接運行的。
用的數據也是上面提到的,結果表明,Claude2 給出的代碼至少在核心算法上是正确的。
(下圖輸入中的 a 是告訴 CPU 這一系列整數輸入完了,可以替換成任意非數字字元)
看來這個問題也沒能難倒 Claude2。
除了代碼,Claude2 據稱還擁有小學級别的數學水平。
那就順便用經典的雞兔同籠問題考一考它(這道題是 ChatGPT 出的):
反復嘗試了很多次,雖然方程式列得沒有問題,但 Claude2 解出的答案都是 20(正确答案應該是 40)。
看來計算這種事,對 Claude2 來説還是有點困難。
有關這次更新的更多信息,可以看下 Anthropic 的宣傳片:
與 OpenAI" 撕 " 出來的 AI 公司
見識過 Claude2 的表現後,那就不得不提一下背後的公司 Anthropic,畢竟真的有點意思。
Anthropic 自稱是一家 AI 安全公司,且具有公益性(PBC)。
眼下,它和 OpenAI 同樣将重心放在生成式 AI 上。1 月份,公司在市場上已經有 50 億美元估值。
Anthropic 由OpenAI 前研究副總裁Dario Amodei 帶領 10 名員工創業,于 2021 年成立。
這裏面既有GPT-3 首席工程師Tom Brown,也有 OpenAI 安全和政策副總裁 Daniela Amodei(Dario 的姐姐),可以説是帶走了相當一批核心人才。
出走成立新公司的原因之一,自然是對 OpenAI 現狀并不滿意。
從前幾年開始,微軟頻頻給 OpenAI 注資,随後又要求他們使用 Azure 超算來搞研究,而且将技術授權給微軟,甚至為微軟自己的投資活動籌集資金。
這與 OpenAI 創立的初衷相悖,一批員工便想到了離職創業。
當然,還有一部分原因是這群人想做能控制、可解釋的 AI,説白了就是先搞明白 AI 模型背後的原理,從而在提供工具的同時設計更多可解釋的 AI 模型。
于是,在 OpenAI 徹底變成 " 微軟攬錢機器 " 後,他們便從這家公司離開,創辦了 Anthropic。
現如今,微軟真的和 OpenAI 有了 " 深度綁定 " 的味道。
然而既狗血又八卦味十足的事情是,今年 2 月,谷歌 CEO 劈柴哥重磅宣布,斥資 3 億美元,投的就是 Anthropic。
之所以被外界抱以厚望,稱呼 Claude2 為 GPT-4 最強競品,不僅僅是因為 Claude 實測下來體驗确實位于第一梯隊,還因為背後實力強大的 " 爸爸們 ":
今年 5 月,該公司表示籌集了 4.5 億美元,使 Anthropic籌集的資金總額超過 10 億美元。
在谷歌入股之前,Anthropic 就已經獲得了多位大佬的投資,如 Skype 創始人 Jaan Tallinn,Facebook 聯創 Dustin Moskovitz,谷歌前 CEO、現技術顧問 Eric Schmidt 等人。
現在,合作夥伴列表裏除了 Zoom 和 Notion.AI,還多了 Jasper.AI 的名字。
不僅如此,公司核心技術 Constitution AI也備受矚目。
它主要圍繞 " 語言模型如何決定它将涉及哪些問題以及它認為哪些問題不合适?為什麼它會鼓勵一些行動而阻止另一些行動?語言模型可能具有哪些價值?" 展開。
為了解決上述問題,它讓 AI 盡可能遵循很多原則。
原則條目有很多,包括聯合國宣言、Anthropic 從研究中自己發現的原則,DeepMind 在 Sparrow 研究中提出的原則,甚至還借鑑了蘋果的服務條款。
并且是通過AI 反饋的方式,來評估輸出,應對目前 AI 的缺點。具體體現在 AI 訓練過程中,分為兩個階段:
第一階段,模型被訓練使用一套原則和一些過程的例子,來評估和修改自己的反應;
第二階段,模型通過強化學習進行訓練,使用基于原則集的 AI 生成的反饋來選擇和輸出更無害的内容。
這一點與 ChatGPT 的的殺手锏 RLHF(人類反饋強化學習)大相徑庭,而 Anthropic 給出的解釋是:
基于 Constitution AI 的強化學習,比從 RLHF 中強化學習得出的生成内容,更有用,且更無害。
并且,還更容易規模化。
在這套 Constitution AI,迭代到 2.0 的 Claude,确實在導入檔案、上下文視窗理解等功能方面,比 GPT-4 更引人注目。
不過也不是完美的,比如 GRE 考試成績上,Claude2 就 5 局 3 敗,輸給了 GPT-4。
但不可否認,巨佬們在 AI 方面你追我趕的局面,讓本普通用户切切實實感受了一波漁翁得利的快樂,嘻嘻嘻(狗頭)。
速來自己肉測:
http://claude.ai
— 聯系作者 —
— 完 —
「AIGC+ 垂直領網域社群」
招募中!
歡迎關注 AIGC 的夥伴們加入 AIGC+ 垂直領網域社群,一起學習、探索、創新 AIGC!
請備注您想加入的垂直領網域「教育」或「電商零售」,加入 AIGC 人才社群請備注「人才」&「姓名 - 公司 - 職位」。
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>