今天小編分享的财經經驗:華為版ChatGPT将于7月初發布,名為“盤古Chat”,歡迎閱讀。
(圖片來源:钛媒體 App 編輯拍攝)
6 月 3 日消息,钛媒體 App 近日從華為内部獨家獲悉,華為公司将發布一款直接對标 ChatGPT 的多模态千億級大模型產品,名為 " 盤古 Chat"。
預計華為盤古 Chat 将于今年 7 月 7 日舉行的華為雲開發者大會 ( HDC.Cloud 2023 ) 上對外發布以及内測,產品主要面向 To B/G 政企端客戶。
這意味着,在國產大模型軍備競賽中,繼阿裡、百度之後,又一重要科技巨頭入局。基于華為的技術能力,盤古 Chat 有望成為國内技術能力最強的 ChatGPT 產品,同時華為生态產業鏈企業也将因此受益。
據悉,盤古大模型于 2020 年 11 月在華為雲内部立項成功。對于盤古大模型定位,華為内部團隊确立了三項最關鍵的核心設計原則:一是模型要大,可以吸收海量數據;二是網絡結構要強,能夠真正發揮出模型的性能;三是要具有優秀的泛化能力,可以真正落地到各行各業的工作場景。
2021 年 4 月,盤古大模型正式對外發布。其中,盤古 NLP 大模型是首個幹億參數中文預訓練大模型,CV 大模型則首次達到 30 億參數。2022 年 4 月,華為盤古更新到 2.0,發布層次化開發方案 ( LO, L1,L2) ,打造工業級盤古大模型。
根據華為雲高管的演講 PPT 信息,目前華為 " 盤古系列 AI 大模型 " 基礎層主要包括 NLP 大模型、CV 大模型、以及科學計算大模型等,上層則是與合作夥伴開發的華為行業大模型。
華為雲人工智能領網域首席科學家田奇今年 4 月稱,盤古 NLP 大模型覆蓋的智能文檔檢索、智能 ERP、小語種大模型等落地領網域,2022 年華為剛交付了一個阿拉伯語的千億參數大模型。在應用方面,盤古大模型可以應用于智能客服、機器翻譯、語音識别等多個領網域,提供 AI 技術支持。
去年華為将盤古大模型在垂直產業領網域落地應用。一個例子是,基于盤古 AI 大模型,華為在礦山領網域打造了首個 " 基于大模型的人工智能訓練中心 ",實現 Al 應用 " 工業化 " 開發,不僅降低成本——比人工核查節省 80%+、每噸成本降低 8 元 (年產能 260 萬噸),而且增加效益——防衝御壓比人工核查節省 80%+,提升效率——智能客戶效率提升 30%。
與其他廠商相比,華為的優勢或在于擁有完整的產業鏈和較強的算力調配能力。據浙商證券此前披露,在訓練千億參數的盤古大模型時,華為團隊調用了超過 2000 塊的昇騰 910 芯片,進行了超 2 個月的數據訓練能力。華為内部稱,每年大模型訓練調用 GPU/TPU 卡超過 4000 片,3 年的大模型算力成本高達 9.6 億元人民币。
東吳證券 3 月 27 日公布的研報中稱,華為盤古大模型的優勢在于人才儲備和算力自主可控,有望成為國内領先的大模型,其生态產業鏈标的有望迎來加速發展,包括拓維信息、四川長虹、麒麟軟體(中國軟體)、統信軟體(誠邁科技)、麒麟信安等華為生态公司。國盛證券則認為,華為盤古為首個多模态千億級大模型,有望賦能百業。
根據華為公布的一份論文數據顯示,華為盤古 PanGu-Σ 大模型參數最多為 1.085 萬億,基于華為自研的 MindSpore 框架開發。整體來看,PanGu-Σ 大模型在對話方面可能已接近 GPT-3.5 的水平。
值得注意的是,由于盤古大模型擁有超大規模的參數,因此訓練成本較高。盡管盤古大模型在中文語言的處理方面具有很高的準确度和質量,但在語義理解方面仍存在一定的局限性,尤其是在處理復雜的語言結構和語義推理方面。同時,盤古 Chat 大模型也将面臨着行業激烈的競争壓力,需要不斷優化和提高模型的性能和質量,才能以保持在市場中的領先地位。(本文首發钛媒體 App,作者|林志佳)
更多精彩内容,關注钛媒體微信号(ID:taimeiti),或者下載钛媒體 App