今天小編分享的科技經驗:美國商務部長示警黃仁勳“芯片不準賣中國”,英偉達“中國特供”生意将如何延續?,歡迎閱讀。
英偉達 CEO 黃仁勳 ( Jensen Huang ) (圖片來源:AFP)
中國市場,對于萬億芯片巨頭英偉達(NVIDIA)來說至關重要。
2022 年,英偉達公司總收入中,有超過 57 億美元(占比 25%)來自中國客戶,尤其包括阿裡、騰訊、字節跳動等互聯網科技大廠,他們一直對英偉達的算力產品 A100/H100 處于 " 瘋狂買買買 " 狀态。
然而,随着 2022 年 10 月、2023 年 10 月,美國商務部工業和安全局(BIS)兩次更新對中國的先進半導體和計算設備的出口管制,英偉達中國特供版 GPU 產品 A800、H800 芯片均已經于 11 月 17 日起在中國禁售。與此同時,AMD 發布的性能最強的 MI300X、MI300A、MI250X、MI250 等多款 AI 芯片也不再能出口到中國了。
雖然《隋唐演義》中稱 " 窮不與富鬥,富不與官鬥 ",但黃仁勳卻認為,英偉達是一家要賺錢的 " 商業公司 ",希望盡可能和所有人做生意。
因此,英偉達最終和美國政府進行了一場 " 貓鼠遊戲 "。
12 月 6 日,在美國商務部長雷蒙多(Gina Raimondo)已公開示警下,英偉達 CEO 黃仁勳卻在新加坡的一場會議中表示,英偉達将繼續為中國市場提供合規芯片產品,預計 " 特供 " 芯片将包括 HGX H20、L20 PCle、L2 PCle 等。
黃仁勳強調,公司将繼續 " 完全遵守 " 美國政府的貿易法規。他直言,芯片產業鏈依然處于全球化,美國芯片制造商距離供應鏈獨立至少還有 10 年 -20 年時間。
前一天,雷蒙多則對于芯片出口管制的态度依然強硬。她直言," 絕不能讓中國芯片技術趕超美國。我們不能讓中國得到這些(最尖端)芯片,永遠都不能 "。雷蒙多還點名英偉達," 我們的意圖是拒絕中國的技術。如果你(英偉達)繞着特定的規定重新設計一款芯片,讓他們能夠從事人工智能項目,我就會在第二天對它(芯片)進行管制。"
" 從 AI 算力本身來說,美國英偉達禁止向中國銷售 H800 算力下,我自己判斷,(中國 AI 產業)大概有 2-3 年的落後差距,至少是頂尖大模型算力。如果明年英偉達還會發布新產品的話,可能這個差距還會增加。" 一家大模型公司 CEO 楊迪文(化名)近日在深圳一場活動上表示。
楊迪文坦言," 如今,我們(中國公司)已經拿不到全球最好的 AI 算力芯片了。"
英偉達、AMD、英特爾和國產 AI 芯片性能對比(來源:钛媒體 App 編輯整理)
貓鼠遊戲下的英偉達 " 縮水 " 芯片,為何還有人買?
上面這張圖提到的 3A090,是今年 11 月 17 日起正式實施的美國商務部 BIS 最新出口管制中的 ECCN 編碼物項。
具體來說,3A090 特指特定高性能集成電路,在數據中心應用場景下,當一顆芯片輸入輸出雙向傳輸速率超過每秒 600GB,或算力超過 4800TOPS 時就屬于 3A090a,也就意味着該芯片将禁止向中國出口和銷售,而 3A090b 則屬于非數據中心芯片的超出其所限制的性能指标。
在 2002 年 10 月版的出口管制措施中,美國政府并未設立上述這種 " 算力 " 标準。新規當時确定的高算力芯片判斷依據有兩個方面:一是其算力峰值超過或達到 4800 TOPS,二是傳輸速率超過或達到 600GB/ 秒。那麼,一旦芯片產品達到這一性能參數,就會被納入出口管制的範圍内。
" 這兩個技術參數之間是‘且’的關系,需要同時達到才會觸發出口禁令,英偉達很好地利用了這個政策框架,推出了 A800 芯片。" 一位行業人士表示。
所以,英偉達 A100 芯片的性能參數恰好符合上述要求,也因此受到當時出口管制的影響。随後,英偉達推出 A100、H100 在中國銷售的 " 特供版 " 芯片 A800、H800,盡管同架構、同樣配備高帶寬插槽(SXM)版本,但芯片數據傳輸速率下降、内存帶寬降低。如果企業不買 NVLink 互連技術,H800 性能和傳輸速率比 H100 要少 60% 以上。
那麼,性能暴降、價格節節攀高的英偉達 " 中國特供 " 芯片,為何還有人買?
根據與多位行業人士交流,钛媒體 App 整理了以下三個主要因素:AI 對于高算力需求火爆,GPU 的關鍵作用,以及國產 AI 芯片生态弱。
首先,即便性能暴降,但 2023 年,以 ChatGPT 為代表的 AI 大模型爆火,面臨經濟衰退的雲廠商全部擠進大模型賽道,AI 訓練芯片成為 " 爆品 ",包括阿裡、騰訊、百度大搶 A100、H800 芯片,英偉達也因此成為中國 AI 大模型領網域關鍵 " 軍火商 " ——營收超過台積電、英特爾,年内股價暴漲 220%,市值漲到 1 萬億美元,成為全球第二大半導體公司、第七大科技巨頭。
具體到案例中,生成式 AI 對算力的具體需求主要體現在搜索、辦公和計算機等場景中。例如,如果谷歌采用 GPT 等大模型用于推薦搜索,每天需要處理 35 億次搜索請求,按照 GPT-4 API 0.14 元 / 次的價格,每年需要支付 1788 億元人民币的 API 費用。若采用自建算力集群的方案,需要提供每秒約 10 萬次的峰值訪問能力,一輪 GPT-4 對話涉及 200 多萬億次浮點運算,在計算資源利用率約 60% 的情況下,需要約 10 萬塊 A100 集群;如果微軟 office 使用大模型辦公,按每人每天 10 次的訪問需求計算,中國的學生與白領人群達到 2.8 億人,每年具有 1.02 萬億次訪問需求,需要 8 萬塊 A100 的算力支持。如果 12 億網民都要有一個定制化的 AI 個人助理(大模型原生應用),在每人 10 次的日訪問條件下,需要 34 萬塊 A100 算力支持。
目前,OpenAI 使用 1 萬 -3 萬顆英偉達 GPU 來訓練 GPT-3.5 模型。集邦咨詢數據顯示,如果以英偉達 A100 顯卡的處理能力計算,運行 ChatGPT 将可能需要使用到 3 萬塊英偉達 GPU 顯卡。另外在開源模型方面,Llama 模型則是在 2048 塊 80GB A100 上訓練,整個訓練算力接近 2000P 算力。
百川智能創始人、CEO 王小川表示,OpenAI 團隊現在正在嘗試把 1000 萬顆 GPU 連在一起訓練一個大規模的模型。而英偉達一年大概生產 100 萬顆 GPU,訓練 GPT-4 需要 2.5 萬顆 GPU 芯片,GPT-3.5 國内訓練需要 4000 顆。
AI 技術嚴重依賴于高算力,但目前在大模型訓練算力方面,只有英偉達才能做到,也能做到最好。
最新财報顯示,截至今年 10 月 29 日的第三季度,英偉達實現營收 181.2 億美元,同比增長 206%;淨利實現 92.43 億美元,同比增長 1259%(12.59 倍);GAAP 攤薄後每股收益為 3.71 美元,同比增長 12.74 倍。
價格層面,目前國内可以買到的 H800、A100/A800 價格都已超過 20 萬 / 張。
以 2000P 算力需求為例,H800 GPU 單卡算力 2P,需要 1000 張,預測整個卡價格為 2 億元;A800 單卡算力約為 0.625P,需要數量為 3200 張,預計整個顯卡價格就高達 3.2 億元。此外,伺服器還要考慮整機配置運算,包括 CPU、存儲、NVLink 互連等,以及電力消耗、場地租金和運維成本等因素,價格進一步攀高。
其次,GPU 在 4000 億美元規模的 AI 加速芯片市場變得越來越關鍵。
AMD 首席執行官蘇姿豐(Lisa Su)公布的一份數據顯示,一年前,她認為 2023 年的 AI 加速器市場為 300 億美元。到 2027 年,全球數據中心 AI 加速器的市場規模将達到 1500 億美元,這意味着期間的年復合增長率(CAGR)約為 50%。但現在蘇姿豐認為,2023 年 AI 加速器的市場規模 450 億美元,未來幾年的 CAGR 将高達 70%,預計推動整個市場到 2027 年增加到 4000 億美元規模。
英偉達企業計算副總裁曼努維爾 · 達斯(Manuvir Das)給出了另一份數據顯示,預計 AI 所在的潛在市場(TAM)規模将增長至 6000 億美元。其中,芯片和系統可分得 3000 億美元,生成式 AI 軟體可分得 1500 億美元,另外 1500 億美元則由英偉達企業軟體貢獻。
很顯然,長期來看,芯片對于 AI 算力發展至關重要。
那麼 2023 年,誰搶到了最多英偉達 GPU?
研究機構 Omdia 最新報告顯示,微軟、Facebook 母公司 Meta 兩家公司分别從英偉達購買了 15 萬塊 H100 GPU 芯片,而谷歌、亞馬遜和甲骨文等公司各搶到了 5 萬塊 GPU。同時,中國廠商中,騰訊購買了 5 萬塊 H800 GPU,百度和阿裡巴巴分别購買了 3 萬和 2.5 萬塊 A100 GPU。
目前,英偉達占據全球數據中心 AI 加速市場 82% 的份額,并以 95% 的市場占有率壟斷了全球 Al 訓練領網域的市場,成為這輪 AI 混戰中最大赢家。
" 沒有大算力做大模型就是天方夜譚。" 中國工程院院士、鵬城實驗室主任高文曾表示,算力已經成為是數字經濟發展的一個指标,算力夠,你的數字經濟就能發展好,不夠就發展不好。
最後,在新一輪 AI 算力競賽中,相比英偉達,國產 AI 算力芯片生态較弱,尤其是在模型訓練層面。
钛媒體 App 曾公布過一組數據,目前在大模型推理方面,國内 AI 芯片 910B 僅能達到 A100 的 60%-70% 左右,集群的模型訓練難以為繼;同時,910B 在算力功耗、發熱等方面遠高于英偉達 A100/H100 系列產品,且無法兼容 CUDA,很難完全滿足長期智算中心的模型訓練需求。
王小川曾提到,目前大模型行業算力分訓練、推理兩部分,合計成本占大模型總成本的 40% 以上。如果中國要想解決好 AI 算力需求問題,推理部分中國需要有國產算力能力,只有英偉達(壟斷)是不夠的,而訓練部分依然需要英偉達,中國大體頂不上,現在有天花板。" 這是整個(行業)都要解決的問題。"
從國内來看,大部分國產 GPU 芯片都是推理類型的,僅有壁仞科技、天數智芯、寒武紀、昇騰等公司曾公布過 AI 訓練芯片。然而,這些廠商的軟體生态依然不及英偉達的 CUDA,只能兼容 CUDA 舊的版本。
當然,未來推理芯片依然會成為關鍵產品。12 月 7 日彭 / 博公布的一段視頻中,蘇姿豐提到,未來 4000 億美元規模中,将有 50% 以上的市場來自推理需求。
360 公司董事長兼 CEO 周鴻祎提到,最近矽谷有一種趨勢,奧特曼(Sam Altman)、微軟、Meta、亞馬遜、高通等科技廠商都在做推理芯片。他認為未來一到兩年,大模型推理過程将不再需要借助昂貴的 GPU 就可以實現技術迭代,把算力成本降下來。" 我個人覺得,這個成本很快不是問題。"
管制方式帶來變數,英偉達在中國市場的未來何去何從?
魔高一尺,道高一丈。
今年 11 月初,市場開始流傳,英偉達即将推出三款 " 中國特供版 " 芯片 HGX H20、L20 PCle、L2 PCle,分别針對訓練、推理和邊緣場景,以及低于美國管制紅線的 NVIDIA RTX 4090D 消費級顯卡,以合規形式向中國出口銷售。
據钛媒體 App 了解,即将發售的 " 中國特供版 "HGX H20 在帶寬、計算速度等方面均有所限制,理論上,整體算力要比英偉達 H100 GPU 芯片降 80% 左右,而且增加 HBM 顯存和 NVLink 互聯模塊以提高 " 無效 " 的訓練算力成本。預計,HGX H20 最快将于明年一季度(2 月)發布。
" 我們成立公司就是為了做生意,努力與所有可能的人做生意。" 黃仁勳日前表示,英偉達将繼續 " 完美 " 遵守貿易法規,并為中國市場提供一套符合美國政府最新規定的新產品。他補充稱,英偉達需要尋求市場的建議,這一過程正在進行中。
然而,這種 " 貓鼠遊戲 " ——只要美國禁令 " 劃出一條線 " 英偉達就總會 " 閹割特供 "。但現在,美國政府似乎意識到這一點。
12 月 2 日在 2023 年裡根國防論壇(RNDF 2023)開場圓桌對話上,雷蒙多直言,芯片與人工智能(AI)對于美國的國家安全很重要," 我們不能讓中國獲得這些芯片。"
她認為,芯片廠商應該理解政府出口管制的實質目的,而不僅僅是滿足某幾個技術參數。美國公司将需要适應美國的國家安全優先事項,包括對 BIS 半導體出口實施的出口管制。
" 我知道在座有芯片公司 CEO 在對我這樣做有點憤怒,因為你正在失去收入," 雷蒙多稱," 這就是生活。保護我們的國家安全比短期收入更重要。我們必須與產業界達成一致。"
美國商務部長雷蒙多
雷蒙多的表态被視為美國政府對英偉達策略的公開示警。據了解,美國政府方面正在建立一個超過 100 人的團隊,這個團隊主要負責半導體方面的工作,以提高美國商務部和 BIS 在人工智能等方面的技術能力。
實際上,美國政府已經開始向英偉達傳遞壓力。2023 年 10 月新出口管制規定實施後,存在 30 天的緩衝期,在緩衝期内,既往訂單仍可以交付,市場一度認為英偉達會利用緩衝期搶單向中國客戶交付芯片(最多 13 個月),但在新版出口禁令出台之後 6 天,美國政府就撤回了 30 天的許可豁免權限,英偉達發布的公告中稱:接到美國政府的通知,對 GPU 產品的出口禁令即刻生效。
如今,無論是降低規格,還是說無法使用英偉達、AMD AI 芯片進行算力訓練,美國芯片出口管制已經對 AI 行業產生影響,阿裡、騰訊均已經表達擔憂情緒。
11 月 15 日,騰訊控股(00700.HK)在财報電話會議上罕見提及芯片限售情況。騰訊總裁劉熾平表示,雖然騰訊目前擁有最多的 AI 芯片庫存之一,短期内芯片禁令并不會影響騰訊 AI 能力,但長期看,美國芯片管制确實影響了騰訊将這些 AI 芯片資源作為雲服務對外租賃的能力。
" 就目前情況而言,騰訊擁有最大的 AI 芯片庫存之一,所以有足夠的籌碼(庫存)支持騰訊混元大模型未來至少幾代的更新發展。短期内芯片禁令并不會真正影響騰訊 AI 能力。展望未來,我們認為,芯片管制實際上确實影響了我們将這些 AI 芯片資源作為雲服務對外租賃的能力。所以這是一個可能受到影響的領網域。未來我們必須想辦法讓 AI 芯片的使用更高效。我們會嘗試看是否可以将大量的推理負載轉到性能較低的芯片上,這樣我們就可以保留大部分高性能的 AI 芯片用于訓練目的,同時我們也将嘗試尋找這些訓練芯片的國產替代。" 劉熾平稱。
11 月 16 日晚,阿裡巴巴集團(NYSE:BABA/09988.HK)在 2024 财年第二季度(即 2023 自然年第三季度)财報公告中指出,因美國擴大先進計算芯片出口管制,給阿裡雲智能集團前景帶來不确定性,因此阿裡不再推進雲智能集團的完全分拆。
另外,最近一個月,阿裡雲、滴滴、騰訊視頻、釘釘等產品服務出現了長時間的 " 斷連 " 情況。有分析認為,這與數據中心芯片減少、伺服器運維停頓等因素有關。
阿裡董事長蔡崇信曾表示,中國 80% 的科技企業和超過 50% 的 AI 大模型公司跑在阿裡雲上。而随着阿裡雲 " 崩 " 上熱搜,促使更多人思考,英偉達 AI 芯片禁售,未來可能将對中國 AI 公司的業務產生長期影響。
當然,雖然美國政府不想讓黃仁勳 " 賺錢 ",但中國人也希望将芯片留在國内。
最近在社交媒體上的一則帖子中顯示,工人在美國工廠中将英偉達 RTX 4090 顯卡拆卸掉,只保留芯片,并把 logo 塗掉,通過海運方式留到國内 AI 公司中做模型訓練使用。
國產芯片也在努力。有行業人士告訴钛媒體 App," 最近賣國產 910B 芯片的銷售人員,經常拿着機箱到大學和研究機構裡面,讓教授博士們免費使用,說服更多人應用國產 AI 芯片。"
黃仁勳近期在紐約公開表示," 美國出口管制新規帶來了很多意想不到的後果。他已經看到中國至少有多達 50 家公司,正在開發與英偉達競争的技術 "。
12 月 6 日新加坡交流活動中,黃仁勳再次表示,華為、英特爾以及越來越多的半導體初創公司對英偉達在 AI 加速器市場的主導地位構成了嚴峻的挑戰。其中,華為是英偉達 " 非常強大 " 的競争對手之一。
很顯然,在巨大的規模和市場機遇下,英偉達對于中國市場巨大的商業價值無法割舍。
今年第三季度财報上,英偉達 CFO Colette Kress 披露稱,英偉達在中國以及其他更新禁令後出口受限制地區的銷售額,約占數據中心總銷售額的 20%~25%。其中,英偉達在中國的相關銷售額達 20% 左右。此外,英偉達還表示,美國新規實施後,預計今年第四季度其產品在中國的銷售額将大幅下降。
" 因此,我們要在算力裡面‘兩條腿’走路。" 楊迪文表示,一方面大模型企業将仍優先使用英偉達合規芯片,另一方面要購買國產算力,在一些環節中采用國產芯片,或購買國產算力雲進行訓練,起到一個 " 主心骨 " 角色。不過,國產芯片生态依然需要很長的路要走。
一位雲計算服務商向钛媒體 App 坦言,如今的形勢已經非常清楚,美國出口管制政策短期内沒有松動的可能,發展國產芯片是一種必要的選擇。
钛媒體 App 梳理多份研究機構統計,預計接下來五年内,全球、中國的 AI 芯片市場規模的增長速度将翻 10 倍以上,有望成為增速最快的科技領網域。
12 月 7 日,IDC 中國副總裁周震剛表示,在英偉達 A800/H800 禁止對中國供應之後,大模型算力面臨 " 無卡可用 " 的問題,與國產芯片的單卡算力差距較大。H20 的計算能力為 148T,而 A800 為 300 多 T,H800 為 700 多 T。因此,未來美國對中國的 AI 芯片出口可能需要申請豁免,當然美國和中國商務部仍在進行談判。
" 那麼,是不是美國芯片禁令會限制中國的 AI 發展,中美 AI 會拉開差距?我認為,單卡算力有意義,但不是決定性能力。實際上 AI 模型訓練是萬卡級别集中在一起,需要整合系統去發揮效能,而非一張卡。" 周震剛指出,根據 IDC 數據顯示,2020 年,智能算力規模(基于 FP16 計算)達到 75 EFlops,預計到 2027 年,這一數字增長至 1117.4 EFlops,8 年增長超 15 倍。
未來,随着美國芯片管制持續收緊,英偉達 " 閹割 " 芯片逐漸将不再是中國客戶的唯一選擇。屆時,中國作為全球增速最高的 AI 芯片市場,英偉達卻在這一地區失去 50 億 -70 億美金收入。
那黃仁勳收入減少的 " 痛 ",雷蒙多能補償嗎?
(本文首發钛媒體 App,作者|林志佳)