今天小編分享的科技經驗:消息稱英偉達中國特供AI芯片 H20 已預售:性能不如華為昇騰 910B,歡迎閲讀。
IT 之家 2 月 3 日消息,據英國媒體,英偉達專為中國市場設計的 AI 芯片 H20 系列已經開始接受經銷商的預購,定價幾乎與國產的華為 Ascend 910B 一致,但在某些關鍵領網域的 FP32 性能表現卻不如華為產品,不過 H20 在互連速度方面似乎比 910B 更具優勢。
報道稱,英偉達最近幾周将 H20 的中國渠道定價設定在 12000~15000 美元(IT 之家備注:當前約 86280 ~ 10.8 萬元人民币)之間。
同時,一些分銷商開始對這款芯片進行大幅加價,部分渠道商的報價最高達到了約 11 萬元。相較之下,華為昇騰 910B 約為 120,000 人民币左右。一位消息人士透露,某經銷商正提供的一款搭載 8 顆 H20 的整機為 140 萬元。相比之下,采用 8 顆 H800 芯片的伺服器一年前也只有 200 萬元左右。
消息人士補充説,經銷商已告訴客户:H20 預計 2024 年第一季開始少量出貨,而大量出貨則需等到第二季度,這一點與之前的爆料吻合。
根據之前的爆料,H20 是英偉達為中國市場開發的三款 AI 芯片(HGX H20、L20 PCle 和 L2 PCle)中最強的一款,這三款芯片均基于英偉達 H100 修改而來,其算力要低于 H100 和 H800,不過在 LLM 推理場景中得益于新特性的加持可以比 H100 快 20% 以上。
作為參考,NVIDIA H100 Tensor Core GPU 采用全新 Hopper 架構,基于台積電 N4 工藝,集成了 800 億個晶體管。與上一代產品相比,可為多專家 ( MoE ) 模型提供高 9 倍的訓練速度。
它配備第四代 Tensor Core 和 Transformer 引擎(FP8 精度),還具有高度可擴展的 NVLink 互連技術(最多可連接達 256 個 H100 GPU,相較于上一代采用 HDR Quantum InfiniBand 網絡,帶寬高出 9 倍,帶寬速度為 900GB/s)等功能。
值得一提的是,科大訊飛副總裁江濤此前指出,目前華為昇騰 910B 能力已經基本做到可對标英偉達 A100。
目前,華為昇騰社區已公開 Atlas 300T 產品有三個型号,分别對應昇騰 910A、910B、910 Pro B,最大 300W 功耗,前兩者 AI 算力均為 256 TFLOPS,而 910 Pro B 可達 280 TFLOPS(FP16)。
作為對比,英偉達 A100 發布于 2020 年,采用雙精度 Tensor Core,基于 Ampere 架構,功耗達到了 400W,FP32 浮點性能 19.5TFLOPS,FP16 Tensor Core 性能可達 312TFLOPS。