今天小編分享的科技經驗:黑芝麻智能發布華山 A2000 家族智駕芯片平台,歡迎閱讀。
IT 之家 12 月 30 日消息,黑芝麻智能今日宣布推出其專為下一代 AI 模型設計的高算力芯片平台 —— 華山 A2000 家族。
華山 A2000 家族包括 A2000 Lite、A2000 和 A2000 Pro 三款產品,分别針對不同等級的自動駕駛需求:
A2000 Lite 專注于城市智駕
A2000 支持全場景通識智駕
A2000 Pro 為高階全場景通識智駕設計
A2000 家族的芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 和 CV 等多功能單元,實現了高度集成化和單芯片多任務處理的能力;新一代 ISP 技術,具備 4 幀曝光和 150dB HDR,在隧道和夜間等場景下表現更好,提升了影像處理能力。
此外,A2000 家族單芯片數據閉環的設計,使得數據在智駕功能正常運行的同時能夠實現全車數據的脫敏、壓縮、編碼和存儲。
A2000 家族算力最大是 "當前主流旗艦芯片的 4 倍",原生支持 Transformer 模型。A2000 家族的靈活擴展性,允許多芯片算力的擴展,以适應不同級别的自動駕駛需求,產品組合全面覆蓋從 NOA 到 Robotaxi 應用場景。
此外,華山 A2000 家族芯片不僅能用于智能汽車領網域,還能夠支持機器人和通用計算等多個領網域。值得一提的是,A2000 芯片能夠滿足機器人的 " 大小腦 " 需求,推動機器人產業從原型開發階段邁向大規模量產。
IT 之家從公告獲悉,黑芝麻智能推出了自研 NPU 新架構 —— 黑芝麻智能 " 九韶 ",九韶是黑芝麻智能為滿足自動駕駛技術需求而推出的 AI 芯片的計算核心,支持新一代通用 AI 工具鏈 BaRT 和新一代雙芯粒互聯技術 BLink。
九韶 NPU 采用了大核架構,支持智駕大模型的實時推理,支持包括 INT8 / FP8 / FP16 在内的混合精度,集成了針對高精度精細量化和 Transformer 的硬加速,能夠簡化開發者在量化和部署過程中的工作。
此外,九韶 NPU 還具備低延時和高吞吐的三層内存架構,包括大容量高帶寬的 NPU 專用緩存、核心模塊片内共享緩存,以及對稱的雙數據通路和專用 DMA 引擎。提升了性能和有效帶寬,降低了對外部存儲帶寬的依賴。
為了發揮九韶 NPU 的潛力,黑芝麻智能研發了新一代通用 AI 工具鏈 BaRT。BaRT 支持多種流行框架和模型的轉換,原生兼容 PyTorch 的推理 API,支持 Python 編程部署。這使得開發者能夠更加便捷地利用九韶架構進行 AI 模型的開發和部署。
BaRT 的另一個優勢是支持業界主流的 Triton 自定義算子編程,允許開發者使用 Python 語言編寫 Triton 自定義算子,這些算子可以被自動化編譯成硬體加速代碼,從而進一步加速開發者 AI 模型的部署。
為了滿足不同等級自動駕駛的算力需求,新一代雙芯粒互聯技術 BLink 支持 Cache 一致性互聯的高效 C2C(Chip-to-Chip)技術,能夠擴展支持更大規模模型的算力需求,為算法長期演進做好準備。
通過 BLink 技術,A2000 家族芯片能夠實現軟體單 OS 跨片部署,支持高帶寬 C2C 一致性連接,滿足 NUMA 跨芯片訪存要求,簡化軟體開發和部署的難度。