今天小編分享的科學經驗:谷歌新旗艦模型鲨瘋了,免費不限量,網友:我讀論文能力提高10倍,歡迎閲讀。
!僅過去不到 24 小時,一大波網友試玩已新鮮出爐 ~
目前看來,眾人一致認為這是谷歌對 OpenAI 的一次成功反擊,甚至有網友辣評:
迄今為止,OpenAI" 雙十二 " 期間最引人注目的反倒是 Gemini 2.0。 ( doge)
根據官方跑分結果,Gemini 2.0 在各項基準測試上的得分和Claude 3.5 Sonnet差不多,但相比 Gemini 1.5 Pro,其生成速度提升了2 倍。
同時,根據 Deepmind CEO 哈薩比斯的説法,Gemini 2.0 這次主打「多模态 +Agent」,是一款面向智能體時代的 AI 模型。
2025 年将是 AI 智能體的時代,Gemini 2.0 将是支撐我們基于智能體工作的最新一代模型。
目前,Gemini 2.0 Flash 實驗版模型已經在網頁端開放,大家都能玩,移動端即将推出。此外,開發者還可以通過 Google AI Studio 和 Vertex AI 的 Gemini API 使用。
Okk,話不多説,這就康康網友們都在拿它弄啥嘞——
首先,随着 Gemini 2.0 Flash 實驗版一同上線的,還有一項名為深度研究(Deep Research)的智能體新功能。
這個功能在 Gemini Advanced 中推出,僅支持英文版本,有點像最近比較火的科研 AI 搜索。
按照谷歌 CEO 皮猜的説法,用户只需給一個科研主題,它就能幫你整理出一份帶參考來源的完整報告。
能全程語音交流論文的科研助手
你以為這就完了??
當然不,來看(前推特)知名 AI 博主的玩法。視頻中,博主用 Gemini 2.0 來閲讀一篇 AI 論文,和傳統的直接上傳檔案然後總結概括不同,這個智能體直接全程和博主語音交流。(注意聽語音)
只聽雙方打完招呼後,博主将論文螢幕分享給了 AI,并詢問對方能看見什麼?
而 AI 也和人類正常對話一樣,回答自己看見的論文标題,圖表……
關鍵是,雙方真的像面對面交談一樣,能夠針對論文的具體内容展開一番探讨。
這下我信了博主的説法。據他稱,新功能直接将論文閲讀能力提高了10 倍。
除此之外,谷歌還發布了多款 AI 智能體,有早已在 I/O 大會上亮相的 Project Astra,也有适用于浏覽器的 Project Mariner,還有專為開發者打造的 AI 編程智能體 Jules。
下面一一來看。
通用助手 Project Astra 回答看見的一切
基于 Gemini 2.0 Flash,谷歌 10 月推出的通用助手 Project Astra 這次有了很多更新。
概括而言,主要是更好的對話、更低的延遲、更強的記憶力(擁有 10 分鍾的會話記憶)以及使用新工具(包括谷歌搜索、Lens 和地圖)。
根據 Deepmind 多模态研究員透露,過去幾個月他帶着這款助手遊歷了歐洲。
從巴黎到羅馬,再到哥本哈根和伊斯坦布爾。它向我解釋了從建築到歷史、藝術和美食的一切,并讓我記住了這些經歷。我對 Astra 帶來的可能性感到非常興奮,因為它創造了一種與聊天視窗完全不同的體驗。
只見在他的 vlog 中,Project Astra 幾乎能 " 看見 " 并 " 識别 " 周圍的一切。
幫他從電子郵件中找到公寓密碼、告訴洗衣注意事項、搜集打卡地信息……
而且,Project Astra 不僅能裝在手機裏,還可以跑進智能眼鏡裏,解鎖更多需要解放雙手的場景(比如騎行)。
不過需要提醒,目前該智能體尚未全面推出,僅限受信任的測試人員使用。
浏覽器智能體 Project Mariner
此外,基于 Gemini 2.0,谷歌這次還發布了一個類似 Anthropic「Computer Use」的智能體——Project Mariner。
簡單來説,用户只需一句簡單指令,它就能自動在浏覽器中完成操作,包括處理像素和文本、代碼、影像和表單等。
而且使用時會在右邊展開側邊欄,實時顯示 AI 的思考及操作過程。(用户也能繼續輸入指令)
不過目前該智能體尚未全面推出,僅限受信任的測試人員使用。
編程智能體 Jules
最後,基于 Gemini 2.0 Flash,谷歌這次為開發者專門構建了一個代碼智能體 Jules。
具體而言,Jules 以異步方式工作,并與用户的 GitHub 工作流集成,在專注于實際想要構建的内容時,它負責處理 Bug 修復和其他耗時的任務。
據官方介紹,Jules 在 SWE-bench Verified 測試中達到了 51.8% 的通過率,而 Claude 3.5 是 49%。
不過,目前 Jules 僅開放給一小部分可信賴的測試者,并計劃在 2025 年初向其他有興趣的開發者提供。
總之,目前發布的上述 3 個智能體均未開放給大眾,要想體驗 Gemini 2.0 的能力,目前更多還是在多模态上。
比如用它來生成影像。
更關鍵的是,一次生成不滿意,還能繼續編輯調整。(從一只蝴蝶到憑空加一只)
進一步深扒發現,Gemini 2.0 在影像生成時竟然具備COT 思維能力。
在第一次生成後,它很快就發現了自己的錯誤,并一步步自動調整,最終生成了符合指令的正确影像。
受此啓發,該 Deepmind 員工還創作了繪本故事書,真 · 圖文并茂。
當然,網友們還解鎖了更多玩法,篇幅受限在此不再展開……
BTW,截至目前,Gemini 2.0 Flash 在幻覺基準測試上的跑分也出來了(只有 1.3%)。
另外,谷歌 AI Studio 負責人還出來預告了一把,好的都在後頭。
目前 2.0 版本已提供給一些開發者内測,谷歌正在迅速将其集成在 Gemini 和搜索等產品線中。正式產品将于 1 月份全面上市,屆時将推出更多型号。
所以是準備藏着和 OpenAI 打擂台嗎? ( doge)
體驗地址:
https://aistudio.google.com/prompts/new_chat
參考鏈接:
[ 1 ] https://x.com/omarsar0/status/1866985193179058638
[ 2 ] https://x.com/simonw/status/1866942603020910866
[ 3 ] https://x.com/Francis_YAO_/status/1866958948173304099
[ 4 ] https://x.com/m__dehghani/status/1866937033052262651
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>