CNMO了解到,華為公司將發(fā)布一款直接對標(biāo)ChatGPT的多模態(tài)千億級大模型產(chǎn)品,名為“盤古Chat”。預(yù)計華為盤古Chat將于今年7月7日舉行的華為云開發(fā)者大會(HDC.Cloud 2023)上對外發(fā)布并內(nèi)測,產(chǎn)品主要面向ToB/G政企端客戶。
盤古大模型于2020年11月在華為云內(nèi)部立項成功。對于盤古大模型定位,華為內(nèi)部團(tuán)隊確立了三項關(guān)鍵的核心設(shè)計原則:一是模型要大,可以吸收海量數(shù)據(jù);二是網(wǎng)絡(luò)結(jié)構(gòu)要強(qiáng),能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場景。
CNMO了解到,與其他廠商相比,華為的優(yōu)勢或在于擁有完整的產(chǎn)業(yè)鏈和較強(qiáng)的算力調(diào)配能力。據(jù)浙商證券此前披露,在訓(xùn)練千億參數(shù)的盤古大模型時,華為團(tuán)隊調(diào)用了超過2000塊的昇騰910芯片,進(jìn)行了超2個月的數(shù)據(jù)訓(xùn)練能力。華為內(nèi)部稱,每年大模型訓(xùn)練調(diào)用GPU/TPU卡超過4000片,3年的大模型算力成本高達(dá)9.6億元人民幣。
由于盤古大模型擁有超大規(guī)模的參數(shù),因此訓(xùn)練成本較高,但在中文語言的處理方面具有很高的準(zhǔn)確度和質(zhì)量。
(AM 8:00-12:00 PM 14:00-18:00)