今天小編分享的科學經驗:“雲計算一哥”一口氣發布6個大模型、3nm芯片!多模态還要搞Any-to-Any,歡迎閱讀。
就在剛剛,雲計算一哥亞馬遜雲科技,在大模型這件事兒上搞了波大的——
亞馬遜 CEO Andy Jassy親自站台re:Invent24,發布自家新款 AI 多模态系列大模型,名曰Amazon Nova。
而且是一口氣涵蓋文本對話、圖片生成、視頻生成,甚至直接吐露一個小目标:
将來我們不僅要Speech to Speech,更要Any-to-Any!
整體而言,Amazon Nova 系列中的所有模型,均以功能和尺寸來劃分。
先來看下新版尖端基礎大模型的 " 文本對話篇 ",一共包含四個杯型:
Amazon Nova Micro:僅限文本對話,主打一個低價格和低延遲;
Amazon Nova Lite:低成本的多模态大模型,處理影像、視頻和文本輸入的速度極快。
Amazon Nova Pro:高性能的多模态大模型,精度、速度和成本最佳 " 配方 ",可處理廣泛的任務。
Amazon Nova Premier:亞馬遜最強多模态大模型,可處理復雜的推理任務,也可用于蒸餾客戶定制化的模型。
在現場,Andy 也曬出了 Amazon Nova 在 CRAG、BFCL、VisualWebBench 和 Mind2Web 等Benchmarks上取得的分數。
從成績中不難看出,其在檢索增強生成(RAG)、函數調用和智能體應用方面具有較好的性能。
據悉,前三者已經上架亞馬遜雲科技的 " 模型工廠 "Amazon Bedrock,而 Premier 版本則将于 2025 年第一季度推出。
目前也有一些實測已經流出,例如給 Amazon Nova Pro 一句 Prompt:
Write a summary of this doc in 100 words. Then, build a decision tree.
寫一篇 100 字的摘要。然後,構建一個決策樹。
啪的一下,結果就出來了:
再如讓 Amazon Nova Pro 理解下面這個合并在一起的視頻:
它給出的答案是:
The video begins with a view of a rocky shore on the ocean, and then transitions to a close-up of a large seashell resting on a sandy beach.
視頻一開始是海洋上的岩石海岸,然後過渡到一個大貝殼躺在沙灘上的特寫。
接下來,就是 " 非文本生成篇 ",一共包括兩款。
Amazon Nova Canvas,主打的是影像生成,用官方的話來說,是達到了 "State-of-the-art"(最先進)的水平:
至于視頻生成模型,名叫Amazon Nova Reel,給定一張圖片和一句話,即可讓它動起來:
而接下來 Andy 的一番話,直接讓現場不淡定了。
正如我們剛才提到的,Andy 已經放出了話,Amazon Nova 即将呈現出來的态勢是萬物皆可生成。
值得細細品味的一點是,亞馬遜雲科技在生成式 AI 時代中,先前發布自研大模型并不算最吸睛的那一批。
雖然此前也發布過 Amazon Titan 大模型,但模态上也僅限于文本,更多的精力還是聚焦在了像 Amazon Bedrock、Amazon Q 這樣的平台和應用。
而這次,亞馬遜雲科技卻一反常态,以厚積薄發之勢把主流模态全面覆蓋,甚至一句 "Any-to-Any" 彰顯其雄心。
為何會如此?
縱觀整場發布會,透過亞馬遜雲科技 CEO Matt Garman 的全程介紹,或許可以把答案總結為——
實力是一直有的,只是現在客戶有需求了。
△Matt Garman 首次以 CEO 身份參加 re:Invent
這又該如何理解?我們繼續往下看。
算力再更新,價格很美麗
先看實力。
作為雲計算一哥,算力是亞馬遜雲科技的看家本領之一。
與傳統雲服務廠商不同,其自主研發并優化的專用芯片和數據中心,包括 Graviton 和 Nitro 等專有伺服器主機,為實時計算提供支持。
而這一次,從芯片到伺服器,基礎設施上一系列的更新動作,可以分為三大板塊來看——
計算(Compute)、存儲(Storage)和數據庫(Database)。
在計算層面上,亞馬遜雲科技先是宣布Amazon EC2 Trn2 實例正式可用。
EC2 Trn2 實例采用了第二代 Trainium 芯片(Trainium2),與上一代 Trn1 實例相比,性能提升顯著。具體來說:
訓練速度提高 4 倍:這一性能提升能有效減少模型訓練所需時間,加快企業應用落地;
内存帶寬提高 4 倍:更強的數據傳輸能力可以滿足復雜模型對實時數據處理的高要求;
内存容量提高 3 倍:為高參數量模型的運行提供了足夠的計算資源。
此外,Trn2 實例在性價比上比當前基于 GPU 的 EC2 P5e 和 P5en 實例高出30-40%。
每個 Trn2 實例包含 16 個 Trainium2 芯片,192 vCPUs,2 TiB 的内存,以及 3.2 Tbps 的 Elastic Fabric Adapter ( EFA ) v3 網絡帶寬,這比上一代降低了高達 35% 的延遲。
針對更高性能需求,亞馬遜雲科技同時推出了Trn2 UltraServer。
這是一種全新的超大規模計算產品,每台 UltraServer 包含 64 個 Trainium2 芯片,并通過高帶寬、低延遲的 NeuronLink互連實現了卓越的性能。
這使得 Trn2 UltraServer 成為訓練超大規模基礎模型(如生成式 AI、LLM 等)的理想選擇。
NeuronLink 是亞馬遜雲科技專有的網絡互連技術,它能夠将多台 Trainium 伺服器組合成一個邏輯上的單一伺服器,連接帶寬可達 2TB/s 的帶寬,而延遲僅為 1 微秒。
它的設計特别适合分布式深度學習任務,在網絡通信上的優化有助于顯著縮短訓練時間,提升資源利用率。
用官方的話來說就是:
這正是訓練萬億級參數的大型人工智能模型所需要的超級計算平台,非常強大。
在現場,蘋果也來為亞馬遜站台,機器學習和人工智能高級總監 Benoit Dupin 表示:
蘋果将使用亞馬遜雲科技的 Trainium2 芯片。
除此之外,在芯片層面上,亞馬遜雲科技發布了AWS Trainium3 芯片預覽版,預計于 2025 年正式推出。
據悉,Trainium3 将采用 3 納米工藝制造,提供兩倍于 Trainium2 的計算能力,并提升 40% 的能效。
在計算(Compute)之後,便是存儲(Storage)上的更新。
我們都知道,在數據分析和大數據領網域,處理和查詢大規模數據集的能力至關重要。
而傳統的數據查詢方法在處理海量數據時,常常導致性能瓶頸和管理復雜性,影響了企業的數據驅動決策能力。
為此,亞馬遜雲科技專門推出了Amazon S3 Tables。
Amazon S3 Tables 提供了一種新的存儲方式,專為表格數據設計,支持使用 Amazon Athena、Amazon EMR 和 Apache Spark 等流行的查詢引擎進行輕松查詢。
S3 的表存儲桶是它的第三種存儲桶類型,與現有的通用存儲桶和目錄存儲桶并列;可以将表存儲桶視為一個分析倉庫,用于存儲具有不同模式的 Iceberg 表格。
與自管理的表格存儲相比,S3 Tables 可以實現高達 3 倍的查詢性能提升和10 倍的每秒事務處理能力,同時提供全托管服務的操作效率。
除此之外,元數據(Metadata)也變得越發重要,例如電話裡面有很多照片,正是因為通過元數據儲存數據,現在可以實現用自然語言很快找到這張照片。
基于這樣的需求,亞馬遜雲科技推出了Amazon S3 Metadata 的預覽版。
Amazon S3 Metadata 提供了一種自動化、易于查詢的元數據管理方式,這些元數據幾乎實時更新,幫助用戶整理、識别和使用 S3 數據進行業務分析、實時推理應用等。
它支持對象元數據,包括系統定義的詳細信息(如大小和對象來源)以及自定義元數據,允許用戶使用标籤為對象添加產品 SKU、交易 ID 或内容評級等信息。
而這些元數據同樣也存儲在 S3 Tables 之中。
在計算、存儲之後,便是基礎設施的第三大板塊——數據庫(Database)。
有意思的一點是,Matt 在現場分享了一張 "OR" 還是 "AND" 的圖,表示企業在選擇數據庫時普遍遇到的艱難抉擇——跨區網域一致、高可用性、低延遲,往往只能 3 選 2。
而亞馬遜雲科技此次給出的答卷是,都可以有。
這就是新型無伺服器分布式數據庫Amazon Aurora DSQL,旨在解決傳統數據庫在擴展性和性能方面的挑戰。
Aurora DSQL 結合了傳統關系數據庫的強一致性和 NoSQL 數據庫的分布式擴展能力,提供了以下幾個關鍵優勢:
跨區網域強一致性和低延遲:采用了全新的架構,使其能夠在多個地理區網域中同時運行,而保持強一致性。
無限擴展:能夠處理數 TB 到數 PB 級的數據集,适用于任何規模的企業。
超高可用性:提供 99.999% 的可用性,這對于許多需要高可用性和無縫運行的企業級應用至關重要。
性能優越:其跨區網域的讀寫操作比 Spanner 快了四倍。
以上便是亞馬遜雲科技此次在基礎設施上的發力了。
新的積木——推理
如果說把基礎設施的三大板塊視為三塊積木,那麼接下來,亞馬遜雲科技在模型層和應用層方面添加了第四塊積木——推理(Inference)。
推理是生成式 AI 工作流的核心,它指的是将已經訓練好的模型應用到新數據上,進行預測、生成或推斷。
Matt 在會上強調:
推理在 AI 模型的應用中變得尤為重要,尤其是在處理像大型語言模型等復雜模型時,推理要求極高的計算能力和低延遲響應。
而 Amazon Bedrock 作為亞馬遜雲科技在模型層的一項 AI 平台服務,先是與我們上述的基礎設施在推理上保持了同步。
換言之,Inferentia 和 Trainium 芯片提供的推理的硬體優化,用戶可以通過 Amazon Bedrock 便捷訪問這些資源。
而至于 Amazon Bedrock 本身,這次也迎來多項能力的更新。
首先就是模型蒸餾(Model Distillation),能夠自動化創建針對特定用例的蒸餾模型。
主要是通過從大型基礎模型(教師模型)生成響應,并使用這些響應來微調較小的基礎模型(學生模型),從而實現知識轉移,提高小模型的精确度,同時降低延遲和成本。
其次是多智能體協作(multi-agent collaboration)。
在需要多個智能體處理復雜任務的場景中,管理這些智能體變得具有挑戰性,尤其是随着任務復雜性的增加。
使用開源解決方案的開發者可能會發現自己需要手動實現智能體編排、會話處理、内存管理等復雜操作。
這也正是亞馬遜雲科技在 Amazon Bedrock 上推出多智能體協作的出發點。具體特點如下:
快速設定:無需復雜編碼,幾分鍾内創建、部署和管理協同工作的 AI 智能體。
可組合性:将現有智能體作為子智能體集成到更大的智能體系統中,使它們能夠無縫協作以應對復雜的工作流程。
高效的智能體間通信:監督智能體可以使用一致的接口與子智能體進行互動,支持并行通信以更高效地完成任務。
優化的協作模式:在監督模式和監督加路由模式之間選擇。在路由模式下,監督智能體将直接将簡單請求路由到相關的子智能體,繞過完整的編排。
最後,也是更為重要的一點,便是防止大型語言模型幻覺導致的事實錯誤的功能——自動推理檢查(Automated Reasoning checks),這是 Amazon Bedrock Guardrails 中新增的一項功能。
這種新的防護措施,旨在通過數學驗證來确保 LLMs 生成的響應的準确性,并防止幻覺導致的事實錯誤。
自動推理檢查使用基于數學和邏輯的算法驗證和推理過程來驗證模型生成的信息,确保輸出與已知事實一致,而不是基于虛構或不一致的數據。
與機器學習(ML)不同,自動推理提供了關于系統行為的數學保證。
據悉,亞馬遜雲科技已經在存儲、網絡、虛拟化、身份和密碼學等關鍵服務領網域使用自動推理,例如,自動推理用于正式驗證密碼實現的正确性,提高性能和開發速度。
在性能方面,Bedrock 還推出了低延遲優化推理,由此,用戶可以在使用最先進的大模型基礎上,還享受卓越的推理性能。
值得一提的是,Llama 405B 和 Llama 70B 低延遲優化版本,在亞馬遜雲科技上展現出超越其他雲提供商的出色表現。
還有應用層和其它更新
針對開發者和企業,亞馬遜雲科技在應用層上的代表作便是 Amazon Q 了。
針對越來越多的企業尋求從本地數據中心遷移到雲的痛點,亞馬遜雲科技在 Amazon Q Developer 上推出了多項新功能。
其中較為引人注目的就是Transformation for Windows .NET Applications,這項功能使得企業能夠更快速地将 .NET 應用程式遷移到 AWS,同時還能夠顯著降低遷移成本。
Amazon Q 為 .NET 應用程式提供了自動化遷移工具,能夠識别應用程式中可能存在的不兼容問題,生成遷移計劃,并且自動調整源代碼,确保平滑過渡到雲端。這種自動化遷移大幅提高了工作效率,減少了人為幹預。
通過将應用程式從 Windows 遷移到 Linux,企業能夠節省高昂的 Windows 許可費用,降低 TCO(總擁有成本)。
Matt 指出,使用 Amazon Q 的企業能夠節省多達 40% 的許可成本。
而且遷移速度比傳統手動遷移快了四倍,大大減少了系統遷移的停機時間和風險。
除了 Windows 應用的遷移,亞馬遜雲科技還推出了 Amazon Q Developer Transformation for VMware Workloads功能,專為運行在 VMware 上的企業工作負載設計。
通過這一工具,亞馬遜雲科技可以幫助企業将本地的 VMware 環境遷移到雲平台。
應用層之外,還有諸如将 AI 和分析做結合的產品—— Amazon SageMaker。
它作為一個可以幫企業加速 AI 應用的開發、訓練和部署的數據科學平台,今天也正式步入了 " 下一代 "。
新一代 SageMaker 的核心是SageMaker Unified Studio。
這是一個單一的數據和 AI 開發環境,它整合了 Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow ( MWAA ) 以及現有的 SageMaker Studio 中的工具和功能。
其次是Amazon SageMaker Lakehouse,可以統一 Amazon S3 數據湖、Amazon Redshift 數據倉庫和第三方及聯合數據源。
亞馬遜雲科技的 "AI 步法 "
在看完本屆 re:Invent 所有内容和實力之後,亞馬遜雲科技在生成式 AI 時代的發展路徑其實也就比較清晰了——
從客戶的真實業務需求出發。
上文種種内容的更新,都是基于 " 客戶的服務出現了什麼問題 ",包括計算、存儲、數據庫上的瓶頸,包括客戶在模型上的選擇,再包括應用上的遷移服務等等。
洞悉了背後的實用主義邏輯,也就不難理解,亞馬遜雲科技為何選擇在這個時間節點上發布一系列多模态大模型,還是因為客戶有需要。
這種需要,具體而言,就是客戶在模型上的選擇,畢竟 " 沒有一個模型可以一統天下 ",每個模型都有自己所擅長的領網域。
但亞馬遜雲科技所做的,是利用自己在基礎設施、工具 / 模型和應用三個層面的深耕和實力,給客戶多提供了一個 " 快、好、省 " 的選項。
回顧亞馬遜雲科技的起步,似乎這一點從未變過。
正如 Matt 在大會上回憶的那樣:
亞馬遜雲科技在 2006 年推出時,初創公司是第一批用戶,他們總是非常積極地采用新技術,并且能夠提供有價值的反饋。
而這種反饋也進一步推動了亞馬遜雲科技的發展,也有助于理解如何更好地支持創業精神。
因此,Matt 在大會中還宣布了一個重磅消息:
将在 2025 年為全球的初創公司提供10 億美元的資金支持!
One More Thing
本屆 re:Invent 共計6 萬人參與,來感受一下這個熱情、這個 feel~
參考鏈接:
[ 1 ] https://www.aboutamazon.com/news/aws/amazon-nova-artificial-intelligence-bedrock-aws
[ 2 ] https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/
[ 3 ] https://aws.amazon.com/blogs/aws/new-amazon-s3-tables-storage-optimized-for-analytics-workloads/
— 完 —
點這裡關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>