今天小編分享的科學經驗:英特爾新款遊戲顯卡賣爆!24G大顯存版也在路上,這下AI玩家也要搶?,歡迎閲讀。
着實有點 Amazing 啊。
這兩天GPU圈子發生了個事兒,被網友們讨論地津津樂道——有一款顯卡賣爆了。
火到什麼程度呢?就是一進貨就被搶光。
GPU 供不應求其實已經司空見慣了,但之所以這次能被熱議起來,是因為這款產品背後的廠家。
不是你以為的英偉達、AMD,而是……英特爾。
為什麼會如此?
從玩家們的讨論中不難得出答案——性價比夠高,2000 元價位就能在 2K 畫質下暢玩 3A 遊戲。
The Verge 也非常 " 直給 " 地給予了一句評價:
英特爾終于在 GPU 上拿下了一次勝利。
而這款顯卡,正是英特爾不久前發布的第二代 Arc B580,售價僅249 美元。
要知道,英偉達 299 美元的 RTX 4060 和 AMD269 美元的 RX 7600,僅配備了 8GB 的 VRAM。
但英特爾的 Arc B580 不僅價格比它們低,還配備了12GB 的 VRAM和 192bit 的顯存位寬。
即使是價格更低的 Arc B570(219 美元,下個月上市)也配備了 10GB 的 VRAM。
除此之外,還有一個更有意思的事情。
雖然 Arc 是遊戲顯卡,但畢竟是 GPU 啊,于是……也有一部分人買來開始搞 AI了。而這,可能會讓它未來的銷售再增三分熱度。
這不,有人在 Reddit 上就分享了怎麼在 Arc B580 上搞 AI 畫圖 Comfy UI 了:
不僅是個人用户的嘗鮮,我們還打聽到有些企業已經着手把英特爾的顯卡塞進包括工作站和伺服器在内的商用計算設備中了,具體搭配的 " 食譜 " 就是:英特爾至強系列 CPU+Arc 顯卡。
不過暫時用的還是英特爾上一代的A770,作為上一代的旗艦型号,A770 有着 16G 大顯存,用在 AI 推理上,也算遊刃有餘。
據可靠的消息,如此組合最為搶眼的優勢,同樣是 " 性價比 " 三字。
而由此引發的,更值得讨論的一個話題應當是:
消費級顯卡搞 AI,到底行不行?
首先可以看出來,無論個人還是企業,買英特爾消費級顯卡來搞 AI,基本都是來做AI 推理的。
實際上,推理算力需求正在飛速增長,大有超過訓練算力需求之勢。
一方面,随着行業熱議的 " 預訓練 Scaling Law 撞牆 " 了,像 OpenAI o1/o3 系列模型也開始依靠增加推理算力提高模型能力。
另一方面,AI 應用落地的爆發也使得推理需求大幅增長,這些需求往往不強求算力的溢出甚至極致,即所謂硬需求不高,而是更加注重實現夠用的性能(包括并發度和時延),以及與之同步的易獲取、易部署、易使用和成本上是否夠實惠。
那麼做AI 推理為什麼選擇英特爾遊戲顯卡?正如前面分析,性價比肯定是一大考慮因素。
從硬體方面講,即使是頂級的算力卡,單卡做 AI 推理在面對高并發等場景時,顯存也會成為瓶頸,但更新到四卡、八卡成本又會飙升。此時,英特爾 A770 這種 2000 元價位就有 16G 大顯存的型号,就成了兼顧性能與成本之選。
從應用方面講,很多場景其實對每秒 token 生成速度要求并不高,特别是有流式傳輸等優化手段,只要 first token latency 到位了,後面生成速度滿足一定要求,體驗就很好。
這是我們拿到的 4 張英特爾 Arc A770 顯卡跑 Qwen2.5 32B 模型的演示 Demo,來感受一下這個速度,是不是足夠了?
看到這裏可能有人要問了,用英特爾顯卡跑 AI,CUDA 的問題怎麼解決?
拿最流行的大模型推理框架之一vLLM來説,得益于開源軟體的發展,其早已實現了高級别的抽象和封裝,其實換用哪種硬體,用起來都沒差太多。
再加上英特爾自己提供的開源oneAPI,就能做到很低的遷移成本。
可能還有人要問了,那為什麼不選專用 AI 推理加速器,比如風頭正盛的 Groq、Sambanova 這些?
這就要説到,多模态互動是現在 AI 應用的一大趨勢,無論是與 AI 視頻對話、數字人,還是直播、短視頻場景的一些應用,都同時會用到視頻解碼或圖形渲染能力,這就非得是通用 GPU不可。
專用加速器雖然在特定任務上有優勢,但在處理多樣化需求時,通用 GPU 更具靈活性。
所以總結來看,用英特爾顯卡搞 AI 推理,算力夠用,大顯存還有,可行性就有了,性價比也有了,對于現有業務來説,遷移成本更是理想。
後面能拿下多大市場,會不會成為一個趨勢,就拭目以待了。
英特爾的曲線突圍
英特爾消費級顯卡被企業拿去搞 AI 推理了,英特爾自己是什麼态度?
那肯定是樂見其成的,而且相當重視。
其實,英特爾在兩年前剛推出 Arc 系列時就采取與友商不同的策略,許可證方面明确不限制數據中心使用。
為了方便大家用好 AI,英特爾的軟體團隊一直沒閒着,除了更新 oneAPI,還在持續推出和更新一系列開源工具,吸粉不斷。
例如加速庫 IPEX-LLM,可用于大模型的推理和微調,在 GitHub 上已經有 6.8k star。
以及低比特量化工具 neural-compressor,也獲得 2.3k star。
從 IPEX-LLM 也可以看出英特爾對中國市場的重視,針對中國主流的開源大模型 ChatGLM、Qwen、MiniCPM 等都提供了适配,中文文檔和教程也做的比較完善。
為了方便大家選擇模型,英特爾還在 HuggingFace 上維護了一個低比特量化模型的排行榜,設定好條件,就可以一鍵比較并篩選出自己需要的模型。
其中性能排名靠前的,不乏英特爾自己動手量化的開源社區優秀模型。
這麼看下來,英特爾為 AI 開源社區做的眾多貢獻,給企業和開發者提供了便利,也是現在大家願意嘗試英特爾顯卡的原因之一。
最後,我們還打聽到一個内幕消息:
英特爾看到 AI 推理這個市場需求逐漸擴大後,在後續產品策略上也有所調整。
2025 年,英特爾準備推出 Battlemage 系列顯卡的更大顯存版本,其容量将增至 24G。
以後就是現有版本繼續服務于遊戲等消費級市場,24G 的更大顯存版本瞄準" 生產力市場 "。
" 生產力市場 " 的目标用户涵蓋了數據中心、邊緣機房、教育科研和個人開發者等。
擁有更大顯存的英特爾顯卡,不僅可在 AI 推理需求上,也能在渲染和視頻編解碼應用上做到比專業圖形卡、工作站顯卡性價比更高。
還真别説," 從遊戲人間轉向打工賺錢 "+" 算力夠用、顯存保大 ",很有可能會成為英特爾 GPU 突圍的一招妙棋。
參考鏈接:
[ 1 ] https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_arc_b580/
[ 2 ] https://www.techspot.com/news/105810-intel-launches-new-arc-battlemage-b580-b570-gaming.html
[ 3 ] videocardz.com/newz/intel-will-not-prohibit-gaming-arc-gpu-use-in-data-centers
[ 4 ] https://github.com/intel-analytics/ipex-llm
[ 5 ] https://github.com/intel/neural-compressor
[ 6 ] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard
— 完 —
點這裏關注我,記得标星哦~
一鍵三連「分享」、「點贊」和「在看」
科技前沿進展日日相見 ~
>