今天小編分享的互聯網經驗:性能是其它AI PC的60倍,英偉達如何變革端側AI?,歡迎閲讀。
2024 年,AI PC 無疑是消費級市場中最受關注的焦點,同時端側大模型及生成式 AI 的熱度仍在持續上升。随着越來越多 AI PC 新品的發布,PC 產業正在迎來一場新的革命。
而這場革命中必然少不了英偉達。就在今日,英偉達于 CES 2024 中發布了 GeForce RTX 40 SUPER 系列產品,并正式對外宣布已優化的軟體、庫及工具。
英偉達新的軟硬體產品不僅将為遊戲玩家帶來全新的 AI 遊戲體驗,還将推動端側生成式 AI 的普及。
RTX 40 SUPER 系列發布,英偉達加入 AI PC 主戰場
AI PC,是指具備集成軟硬體混合式智能學習與推理能力的計算機。
但目前業内對 AI PC 的定義仍較為模糊,以西南證券的研究報告為例,其将 AI PC 定義為:在架構設計上,AI PC 最重要的是嵌入了 AI 芯片,形成 "CPU+GPU+NPU" 的異構方案。
不過,英偉達在不使用 NPU 的情況下,仍能讓 PC 表現出優異的性能,其表示:" 以宏碁、華碩、戴爾、惠普、聯想、微星等合作夥伴發布全新 RTX AI 筆記型電腦為例,與使用 NPU 相比,RTX AI 筆記型電腦的性能可提升 20-60 倍。"
不過無論 AI PC 該如何被定義,在這一波浪潮中,產品性能才是王道,擁有創造和運行生成式 AI 的生态才是标準。這點也可以從其新款 RTX 40 SUPER 系列產品看出。
雷峰網了解到,本次發布性能最高的 GeForce RTX 4080 SUPER,在 AI 工作負載方面,生成視頻的速度比 RTX 3080 Ti 快 1.5 倍,生成影像的速度比 RTX 3080 Ti 快 1.7 倍。SUPER GPU 的 Tensor Core 可提供最高可達 836 AI TOPS。
而新發布的 GeForce RTX 4070 Ti SUPER 則是擁有更多核心,顯存容量增至 16GB,顯存位寬為 256 bits。比 RTX 3070 Ti 快 1.6 倍,打開 DLSS 3 後,比 RTX 3070 Ti 快 2.5 倍。而 RTX 4070 SUPER,則是核心數量比 RTX 4070 多 20%,使其僅使用 RTX 3090 的一小部分功耗就實現了超越 RTX 3090 的性能,借助 DLSS 3,它的性能領先優勢将擴大到 1.5 倍。
基于強大的 AI 性能,英偉達的 GeForce GPU 将給包括遊戲玩家在内的用户帶來全新的 AI 體驗。
遊戲玩家的全新體驗和端側 AI 的全面普及
英偉達推出了 NVIDIA ACE(Avatar Cloud Engine)微服務,它使用生成式 AI 讓遊戲 NPC 變得更真實,旨在增強用户與遊戲 NPC 之間的互動。具體表現為,用户以自然語言對遊戲 NPC 説話後,NPC 并無預設回復,而是由大模型生成 NPC 的反應、回復内容、語音、口型、神态。背後的大模型可以運行在雲上,也可以運行在 PC 端。
同時,英偉達發布了 NVIDIA RTX Remix,用于創建經典遊戲 RTX 重制版的平台。測試版将于本月底發布,提供生成式 AI 工具,可将經典遊戲中的基本紋理轉化物理精準的 4K 高精度材質。
幀率提升方面,NVIDIA DLSS 3 支持幀生成技術 ( Frame Generation ) ,可利用 AI 将幀率提高到原生渲染的 4 倍,據了解,這将用于已發布的 14 款全新 RTX 遊戲中的十幾款遊戲中,包括《地平線:西之絕境》 ( Horizon Forbidden West ) 、Pax Dei 和《龍之信條 2》 ( Dragon ’ s Dogma 2 ) 等。 [ Bb1 ]
AI 開發者也可以充分利用端側強大的 AI 能力,讓生成式 AI 無處不在。
英偉達月底即将上線 NVIDIA AI Workbench 工具包,允許開發者在 PC 或工作站上快速創建、測試和自定義預訓練的生成式 AI 模型和 LLM,并且項目可擴展到數據中心、公有雲或 NVIDIA DGX Cloud 等,然後再回到 PC 或工作站上的本地 RTX 系統進行推理和輕量定制。該工具還簡化了對 Hugging Face、GitHub 和 NVIDIA NGC 等流行存儲庫的訪問。
NVIDIA AI Foundation Models and Endpoints ( 包括 RTX 加速的 AI 模型和軟體開發工具包 ) 有了新的進展。目前英偉達與惠普達成合作,将其集成到惠普 AI Studio 中,這是一個集成化的數據科學平台,簡化 AI 模型的開發。這将使用户能跨 PC 和雲輕松搜索、導入和部署優化後的模型。并且,為 PC 使用場景構建 AI 模型之後,開發者可使用 NVIDIA TensorRT 對其進行優化,以充分利用 RTX GPU 的 Tensor Core。
英偉達通過 TensorRT-LLM for Windows 将 TensorRT 擴展到基于文本的應用,目前最新更新現已發布,将 Phi-2 加入不斷增長的 PC 預優化模型列表,與其他 backend 相比推理速度提升 5 倍;另一方面,TensorRT 擴展更新版的發布,令加速 Stable Diffusion XL ( SDXL ) Turbo 和 LCM 的性能提升了 60%。 [ Bb2 ]
英偉達還宣布了一項為 AI 愛好者而設計的技術 Demo —— Chat with RTX。據了解,這項服務或将作為開源參考項目于月底發布,讓用户通過 " 檢索增強生成 retrieval-augmented generation ( RAG ) ",可将 PC LLM 連接到自己的數據。該 Demo 由 TensorRT-LLM 加速,使用户快速與自己的筆記、文檔和其他内容進行互動。