大模型將成為AI開發(fā)新范式
人工智能的落地已經(jīng)發(fā)展到一定階段,向前一步的瓶頸在于某一廠商往往不具備足夠的可用于模型訓(xùn)練的數(shù)據(jù)資源,且缺乏充足的算力,很難將偏通用的AI模型落地到企業(yè)場(chǎng)景中。行業(yè)參與者面對(duì)這些挑戰(zhàn)推出多項(xiàng)舉措,包括自動(dòng)化機(jī)器學(xué)習(xí)、聯(lián)邦學(xué)習(xí)、提供云端算力等,其中大模型是現(xiàn)階段解決這些挑戰(zhàn)的重要途徑之一。
本文引用地址:http://m.butianyuan.cn/article/202206/435760.htm什么是大模型? 在大模型的早期階段,廠商宣傳中常提到千億級(jí)、萬(wàn)億級(jí)參數(shù)為特大模型、超大模型。而在產(chǎn)業(yè)實(shí)際落地階段,不再追求模型參數(shù)的數(shù)量。IDC認(rèn)為,大模型是對(duì)原有算法模型的技術(shù)升級(jí),基于海量數(shù)據(jù)開發(fā)預(yù)訓(xùn)練模型,到最終用戶環(huán)境中使用少量數(shù)據(jù)即可獲得比之前的算法模型更好的結(jié)果,其要點(diǎn)在于: 1 預(yù)訓(xùn)練型學(xué)習(xí)了多少數(shù)據(jù) 2 遷移學(xué)習(xí)的效果如何 3 部署的整體成本如何
主流的大模型廠商 大模型浪潮最早起源于預(yù)訓(xùn)練模型,Google發(fā)布的Bert模型即是自然語(yǔ)言處理領(lǐng)域最為典型的預(yù)訓(xùn)練模型。OpenAI則提出的GPT模型,尤其是2020年發(fā)布的GPT-3模型參數(shù)量即達(dá)到1750億,在全球掀起大模型的浪潮??梢哉f(shuō),在AI模型開發(fā)領(lǐng)域,經(jīng)歷了預(yù)訓(xùn)練模型-大規(guī)模預(yù)訓(xùn)練模型-超大規(guī)模預(yù)訓(xùn)練模型的演進(jìn)。 在國(guó)內(nèi),IDC觀察到目前大力投入大模型的研發(fā)和落地的廠商以大型云服務(wù)商為主。例如,百度智能云“文心大模型”,包括了NLP大模型、CV大模型以及跨模態(tài)大模型,其特色在于注重跨模態(tài)技術(shù)研發(fā),融入海量知識(shí)進(jìn)行知識(shí)增強(qiáng),應(yīng)用場(chǎng)景廣泛且落地實(shí)踐豐富。阿里達(dá)摩院則推出“通義大模型”系列,以M6大模型為底座,發(fā)布Alice一系列模型合集,該大模型系列既在阿里內(nèi)部核心業(yè)務(wù)場(chǎng)景落地,也在外部醫(yī)療、能源、金融行業(yè)積累了多個(gè)實(shí)踐案例。華為則從框架層、算力層以及軟件層面全面發(fā)力大模型,既有內(nèi)部自主研發(fā)的盤古大模型,也開放華為昇思MindSpore框架支持業(yè)界進(jìn)行大模型的訓(xùn)練,華為在大模型領(lǐng)域強(qiáng)調(diào)強(qiáng)泛化能力、模型精度的提升以及研發(fā)成本的降低。此外,京東云、浪潮以及主流的人工智能研究院也在積極投入大模型的研發(fā),典型的大模型有智源研究院悟道2.0模型、浪潮“源1.0”大模型等。 現(xiàn)階段如何看待和采用大模型?
隨著市場(chǎng)對(duì)于大模型的認(rèn)知逐漸理性和落地,使用大模型的價(jià)值也開始凸顯,包括:不要求企業(yè)具備海量的數(shù)據(jù)基礎(chǔ)、應(yīng)用大模型的效果更優(yōu)、降低AI開發(fā)門檻等。行業(yè)用戶可以優(yōu)先從相對(duì)落地的場(chǎng)景開始,例如智能客服、文檔內(nèi)容抽取、知識(shí)圖譜、OCR等。在選擇大模型的時(shí)候,可以考慮:大模型學(xué)習(xí)過(guò)的數(shù)據(jù)量/知識(shí)量、經(jīng)過(guò)遷移學(xué)習(xí)后在本企業(yè)應(yīng)用場(chǎng)景中落地的效果、對(duì)于本地算力的需求。
IDC中國(guó)助理研究總監(jiān)盧言霞表示:“大模型的泛化能力強(qiáng)、模型效果更優(yōu)等特征助力其成為AI開發(fā)新范式,也是現(xiàn)階段AI市場(chǎng)發(fā)展的必然趨勢(shì)。行業(yè)用戶中AI先行者可以考慮優(yōu)先在成熟度較高的場(chǎng)景中引入大模型,來(lái)適配本行業(yè)的細(xì)分場(chǎng)景?!?br/>
評(píng)論