6月3日消息,鈦媒體App近日從華為內部獨家獲悉,華為公司將發(fā)布一款直接對標ChatGPT的多模態(tài)千億級大模型產品,名為“盤古Chat”。
預計華為盤古Chat將于今年7月7日舉行的華為云開發(fā)者大會 (HDC.Cloud 2023) 上對外發(fā)布以及內測,產品主要面向To B/G政企端客戶。
這意味著,在國產大模型軍備競賽中,繼阿里、百度之后,又一重要科技巨頭入局。基于華為的技術能力,盤古Chat有望成為國內技術能力最強的ChatGPT產品,同時華為生態(tài)產業(yè)鏈企業(yè)也將因此受益。
據悉,盤古大模型于2020年11月在華為云內部立項成功。對于盤古大模型定位,華為內部團隊確立了三項最關鍵的核心設計原則:一是模型要大,可以吸收海量數據;二是網絡結構要強,能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場景。
2021年4月,盤古大模型正式對外發(fā)布。其中,盤古NLP大模型是首個干億參數中文預訓練大模型,CV大模型則首次達到30億參數。2022年4月,華為盤古升級到2.0,發(fā)布層次化開發(fā)方案 (LO, L1,L2) ,打造工業(yè)級盤古大模型。
根據華為云高管的演講PPT信息,目前華為“盤古系列 AI 大模型”基礎層主要包括NLP大模型、CV大模型、以及科學計算大模型等,上層則是與合作伙伴開發(fā)的華為行業(yè)大模型。
華為云人工智能領域首席科學家田奇今年4月稱,盤古NLP大模型覆蓋的智能文檔檢索、智能 ERP、小語種大模型等落地領域,2022年華為剛交付了一個阿拉伯語的千億參數大模型。在應用方面,盤古大模型可以應用于智能客服、機器翻譯、語音識別等多個領域,提供AI技術支持。
去年華為將盤古大模型在垂直產業(yè)領域落地應用。一個例子是,基于盤古 AI 大模型,華為在礦山領域打造了首個“基于大模型的人工智能訓練中心”,實現 Al 應用“工業(yè)化” 開發(fā),不僅降低成本——比人工核查節(jié)省80%+、每噸成本降低8元 (年產能260萬噸),而且增加效益——防沖御壓比人工核查節(jié)省80%+,提升效率——智能客戶效率提升30%。
與其他廠商相比,華為的優(yōu)勢或在于擁有完整的產業(yè)鏈和較強的算力調配能力。據浙商證券此前披露,在訓練千億參數的盤古大模型時,華為團隊調用了超過2000塊的昇騰910芯片,進行了超2個月的數據訓練能力。華為內部稱,每年大模型訓練調用GPU/TPU卡超過4000片,3年的大模型算力成本高達9.6億元人民幣。
東吳證券3月27日公布的研報中稱,華為盤古大模型的優(yōu)勢在于人才儲備和算力自主可控,有望成為國內領先的大模型,其生態(tài)產業(yè)鏈標的有望迎來加速發(fā)展,包括拓維信息、四川長虹、麒麟軟件(中國軟件)、統信軟件(誠邁科技)、麒麟信安等華為生態(tài)公司。國盛證券則認為,華為盤古為首個多模態(tài)千億級大模型,有望賦能百業(yè)。
根據華為公布的一份論文數據顯示,華為盤古PanGu-Σ大模型參數最多為1.085萬億,基于華為自研的MindSpore框架開發(fā)。整體來看,PanGu-Σ大模型在對話方面可能已接近GPT-3.5的水平。
值得注意的是,由于盤古大模型擁有超大規(guī)模的參數,因此訓練成本較高。盡管盤古大模型在中文語言的處理方面具有很高的準確度和質量,但在語義理解方面仍存在一定的局限性,尤其是在處理復雜的語言結構和語義推理方面。同時,盤古Chat大模型也將面臨著行業(yè)激烈的競爭壓力,需要不斷優(yōu)化和提高模型的性能和質量,才能以保持在市場中的領先地位。
免責聲明: 本文內容來源于鈦媒體 ,不代表本平臺的觀點和立場。
版權聲明:本文內容由注冊用戶自發(fā)貢獻,版權歸原作者所有,武岡人網僅提供信息存儲服務,不擁有其著作權,亦不承擔相應法律責任。如果您發(fā)現本站中有涉嫌抄襲的內容,請通過郵箱(admin@4305.cn)進行舉報,一經查實,本站將立刻刪除涉嫌侵權內容。
已輸入0/200 個字!