今天小編分享的科技經驗:Gemini 大模型逆襲,給了 Google Cloud「AI 基建」的勇氣,歡迎閲讀。
北京時間 4 月 10 日凌晨,Google Cloud Next 2025 正式揭開序幕。
如果用「AI 屆的蘋果發布會」來形容每年的英偉達硬體發布會,那「AI 屆的 CES」或許更适合用來形容今年的 Google Cloud Next;雖然同樣令人興奮,但每一個來到現場的人都帶着自己的問題,現場随處可見各種務實的交流。
絡繹不絕的觀眾前往 Google Cloud Next 25 主題演講 | 圖片來源:極客公園
三個月前,同樣是拉斯維加斯,這個場館這個舞台上,黃仁勳同樣以 AI 為主題的演講,揭開了 CES2025 的序幕。
但即使是老黃的主題演講,都不及今天的 Google Cloud Next 開幕主題演講座無虛席;即使場内已經人滿為患,仍然有大量的人在門口排隊,等待有空缺位置時第一時間入場。
主題演講現場,人數甚至比老黃演講更多 | 圖片來源:極客公園
之所以沒有老黃的個人魅力,Google 的動作仍然能被如此多的業界人士關注,顯然是因為 Google 如今在 AI 模型應用部署領網域的統治地位。有了 Gemini 2.5 Pro 的打底,Google 今年在 AI 領網域的影響力已經處于第一梯隊,但對于 Google Cloud 來講,如何将這部分能力,轉化給全世界的用户的實際使用中,才是這屆 Next25 最需要給全球用户解答的問題。
不僅有針對推理模型優化的第一代 Google Tensor TPU 芯片,還有 Gemini 能力在 Google Workspace 生态中的進一步「植入」,甚至祭出了「本地部署 Gemini」這樣的大招。以及讓不少業内人士感到興奮的「Agent2Agent」溝通協定。
網友對 Google Cloud Next 發布產品的評價 | 來源:X
僅僅是首日的主題演講,Google 就已經展現出幾乎是在 AI 應用領網域「全方位出擊」的產品規劃,并且在幾乎每一個領網域都拿出了業内最前沿的思考與解決方案。
難怪有不少網友,在看完 Google Cloud Next 25 的主題演講全部内容後,直呼「Google 真的是目前大模型廠商中開啓了「上帝模式」的選手」。
新模型
作為 Google CEO 皮查伊上台親自發布的產品,Gemini 2.5 Flash 與它的前輩 Gemini 2.5 Pro 不同,這是一款「提供強大性能的同時注重效率」的推理模型。
Gemini 2.5 Flash 作為新模型發布 | 圖片來源:極客公園
據皮查伊介紹,Gemini 2.5 Flash 主打賣點是提供「動态且可控的」計算能力,允許開發者根據查詢的復雜性,手動調整處理時間。「你可以根據具體需求調整速度、準确性和成本之間的平衡。這種靈活性對于在高流量、成本敏感的應用中優化模型的性能至關重要」。
根據在現場與 Google 工程師的交談,他指出 2.5 Pro 在處理一些簡單的問題時,仍容易出現「過度思考」導致其響應速度大幅降低的問題。這也是 2.5 Flash 在體驗中力求解決的難點。但最終他們的目标,還是進一步改善模型的動态思考能力,并将更多控制權開放給用户。
作為打響大模型性價比大戰第一槍的選手,Google 還特别提到了與 DeepSeek R1 這樣「價格較低但性能良好的模型」的對比,表示 2.5 Flash 非常适合在「高流量」和「實時」應用的商用場景——例如客户服務和文檔解析。
除了新模型,Google 還放出了将最新模型「本地部署」這樣的策略,來讓已經有自己數據中心、或是有着更高數據管理要求的客户,能夠使用現有的硬體設施,快速在自己的服務中部署 Gemini 2.5 Flash 的能力。
Google 計劃從第三季度開始,将 2.5 Flash 這樣的 Gemini 模型引入本地部署環境。該公司的 Gemini 模型将可在 Google Distributed Cloud ( GDC ) 上使用,同時表示 Google 也正在與英偉達合作,将 Gemini 模型引入符合 GDC 規範的 Nvidia Blackwell 系統。
這樣的服務分量也吸引到老黃來站台| 圖片來源:極客公園
新工具
作為 Google Cloud 托管的 AI 工具部署平台,Vertex AI 也在今天得到了幾乎是「全模态」的更新,新的視頻、影像、語音和音樂生成 AI 工具都将登陸 Vertex AI。
其中最值得關注的,就是視頻生成模型 Veo 2 的更新,新增的編輯和相機控制功能,除了可以自動「從視頻中移除不需要的背景影像、徽标或幹擾物」。還能将原始視頻的畫面擴展,進一步填充原本的空白内容。這個工具會用 AI 生成的、能與原始片段融合的視頻素材來填充新的空間。
Veo 2 的視頻内容拓展效果 | 圖片來源:Google
此次更新還允許 Veo 2 用户在生成素材時,除了文本描述外,還可以選擇電影技巧預設,用于指導最終結果中的鏡頭構圖、攝影機角度和節奏。包括延時攝影效果、無人機風格的第一人稱視角(POV)以及模拟不同方向的攝影機平移。
此外,本次更新還增加了一個新的插值(Interpolation)功能,可以在兩個靜态影像之間創建視頻過渡,用新的幀填充開頭和結尾序列。
只需給出一個起始幀和最終幀,Veo 2 就會生成連接兩者的視頻。
只需兩張照片,Veo 2 就能自動生成一段中間視頻 | 圖片來源:Google
文本轉影像模型 Imagen 3 的編輯功能也得到了更新,Google 表示本次更新「顯著」改進了自動對象移除時的自然效果。
Imagen 3 能獲得更自然的内容移除效果 | 圖片來源:Google
據現場相關業務負責人介紹,Veo 2 和 Imagen 3 已經被歐萊雅等公司用于設計營銷内容。負責人 Justin Thomas 表示,過去「需要八周才能完成的影像處理任務,現在只需八小時」。
這些更新發布之後,使 Vertex AI 成為目前市面上唯一一個覆蓋了視頻、影像、語音和音樂的内容生成模型的平台。
除了面向當下需求的新工具,Google 還公布了一項新的開放協定—— Agent2Agent ( A2A ) ,旨在連接不同生态系統中的 AI Agents。
這個概念聽起來似乎與時下非常流行的 MCP 協定有些相似之處,但不同之處在于,MCP 是為了解決 LLM 與工具之間的溝通,而 A2A 則是 Agent 與 Agent 之間的對話,就像是屬于 AI 的全新語言。
A2A 協定應用場景演示 | 圖片來源:Google
Google 表示,A2A 協定将使企業能夠更便捷地部署 AI Agent 產品,因為它解決了構建在不同供應商生态系統上的代理無法相互通信的挑戰。
在現場,還演示了一個具體的案例:例如在同一個 UI 界面下,系統可以使用一個 Agent 來根據位置與技能,在面試中篩選候選人,在篩選完成、并且完成初步的面試後,系統可以自動将生成的信息快速傳輸給另一個設計用于候選人背景審查的 AI Agent 工具,在這個過程中,大幅降低 AI 與 AI 之間的信息損耗。
這套系統顯然在未來越來越多 AI Agent 投入應用的時代,有着很強的需求。根據代理式數字工作平台 DoozerAI 的聯合創始人 Paul Chada 的説法,A2A 協定提供的互操作性将使企業能夠自動化跨越多個系統的復雜工作流程,從而可能在降低集成成本的同時提高生產力。
Google 同時還介紹,A2A 協定建立在現有流行的标準之上,包括 HTTP、SSE 和 JSON-RPC;其中 HTTP 是網絡通信的基礎,而 SEE 和 JSON-RPC 分别是向客户端伺服器發送更新的基礎協定,以及應用程式使用 JSON 消息進行遠程相互通信的基礎協定。
盡可能多的利用現有的協定,目标是能夠盡可能降低這個全新的協定,在現有服務中部署的難度,使其更容易與企業已在使用的現有 IT 堆棧集成。即使這仍然是一個短期内充滿挑戰的事,但仍然讓現場的不少開發者感到興奮,随處可以聽到關于這個「Agent 之間的新語言」的讨論。
新硬體
對于 Google 來講,在 AI 領網域的統治級地位,除了提供完善的軟體能力,在硬體領網域多年的投入帶來的成果如同左右手一般必不可少,因此今天除了一系列軟體服務更新,Google 今天還發布了最新的第七代 Tensor 處理單元(TPU)Ironwood。
Ironwood TPU | 圖片來源:Google
據 Google 介紹,Ironwood TPU 是 Google「迄今為止性能最強、可擴展性最高且能效最高的定制 AI 加速器」,并且是「首款專為推理設計」的 TPU。
Ironwood 每個獨立芯片提供 4614 TFLOPs 的峰值計算能力。而包括 9216 顆 TPU 的集群總共擁有 42.5 Exaflops 的計算能力,是世界上目前最大的超級計算機 El Capitan(每個集群提供 1.7 Exaflops)計算能力的 24 倍以上。
如果這還不足以直觀的體現 Ironwood 性能的蒙正,作為雲計算 TPU 硬體領網域的大廠,Google 還回顧了從 2018 年到 2025 年的研發歷程 —— TPU 的性能增長了 3600 倍。
第七代 TPU Ironwood 有着巨大的性能提升 | 圖片來源:Google
據 Google 介紹,性能巨幅提升的 Ironwood,旨在針對性滿足思維模型所要求的不同計算需求,這些模型「包括大型語言模型(LLM)、混合專家模型(MoE)和需要「大規模」并行處理和高效的内存訪問的高級推理任務」。
在前沿領網域,思維模型的計算需求遠遠超出了任何單個芯片的能力。因此我們設計的 Ironwood TPU 具有低延遲、高帶寬的 ICI 網絡,以支持在整個 TPU 單元級規模上進行協調、同步的通信。
結語
當你看到這篇文章時,Google Cloud Next 25 的主題演講已經結束,但正式的會議日程才剛剛開始。
就像本次 Next 25 的口号一樣,來這裏的每個人都想知道「AI for what's next?」的答案,主題演講中發布的一系列工具,只是 Google Cloud 對此的回答。
每個來到這裏的人,都在試圖找到「AI for what's next」這個問題的答案 | 圖片來源:極客公園
作為當下最大的「AI 基礎設施」供應商,Google Cloud 不僅需要提供更多現有的工具:更好的模型能力,更豐富的平台、更适合的算力硬體。
在市面上,你幾乎再也難以找到像 Google Cloud 這樣,給用户提供了「一站式解決方案」的廠商,因此在現場的溝通中,「One and only」是現場很多開發者的聲音。
「一站式解決方案」|圖片來源:極客公園
Google 在 AI 領網域的地位,也讓 Google Cloud Next 作為溝通平台的價值急劇提升,在前沿技術的土壤中,作為「AI 時代的基礎設施」,幫助更多用户,建立起更多滿足新時代需求的 AI 生态,或許才是 Google Cloud 未來的「核心價值」。