封閉沒有前途!Intel打造開放AI生態(tài) 誓要虎口奪食
Intel日前舉辦了Vision 2024年度產(chǎn)業(yè)創(chuàng)新大會(huì),亮點(diǎn)不少,號稱大幅超越NVIDIA H100的新一代AI加速器Gaudi 3、品牌全新升級的至強(qiáng)6、AI算力猛增的下一代超低功耗處理器Lunar Lake,都吸引了不少目光。
本文引用地址:http://m.butianyuan.cn/article/202404/457684.htm不過對于AI開發(fā)者、AI產(chǎn)業(yè)尤其是企業(yè)AI而言,這次大會(huì)上還有一件大事:
Intel聯(lián)合眾多行業(yè)巨頭,發(fā)起了開放企業(yè)AI平臺,推動(dòng)企業(yè)AI創(chuàng)新應(yīng)用,同時(shí)通過超以太網(wǎng)聯(lián)盟(UEC)和一系列AI優(yōu)化以太網(wǎng)解決方案,推進(jìn)企業(yè)AI高速互連網(wǎng)絡(luò)創(chuàng)新。
如今說到大規(guī)模AI部署,很多人腦海中會(huì)立刻浮現(xiàn)兩個(gè)名字:
一個(gè)是OpenAI,大模型和算法的一枝獨(dú)秀;另一個(gè)是NVIDIA,硬件算力和生態(tài)的典型代表。
但是每每說到NVIDIA,以及CUDA為代表的生態(tài)圈,其一貫以來的封閉做法頗為人所詬病,被譽(yù)為“硅仙人”的芯片開發(fā)大神 Jim Keller就一直對NVIDIA的做法極為不滿,斥責(zé)CUDA不是護(hù)城河而是沼澤,NVLink這種私有互連標(biāo)準(zhǔn)也應(yīng)該摒棄。
坦白說,NVIDIA AI不僅僅在硬件性能上“遙遙領(lǐng)先”,更大的資本正是耗費(fèi)十幾年時(shí)間和無數(shù)美元砸出來的CUDA生態(tài),成為其“壟斷行業(yè)”、獲利無數(shù)的制勝法寶。
只不過時(shí)代在變化,無論企業(yè)還是開發(fā)者,都不希望被束縛在一個(gè)小圈子里,更希望在開放共享的世界里自由前行,這正好給了其他廠商追趕甚至超越NVIDIA的大好機(jī)會(huì)。
Intel就瞅準(zhǔn)這一趨勢和需求,聯(lián)合Anyscale、Articul8、DataStax、Domino、Hugging Face、KX Systems、MariaDB、MinIO、Qdrant、RedHat、Redis、SAP、VMware、Yellowbrick、Zilliz等眾多行業(yè)伙伴宣布,將聯(lián)合創(chuàng)建企業(yè)AI開放平臺,助力企業(yè)推動(dòng)AI創(chuàng)新。
它將為企業(yè)AI提供一個(gè)從下到上的完整平臺,底層基于Intel完整覆蓋云、數(shù)據(jù)中心、邊緣、PC各個(gè)領(lǐng)域的AI算力硬件,也就是XPU理念。
構(gòu)筑其上的是標(biāo)準(zhǔn)化和可擴(kuò)展的基礎(chǔ)設(shè)施生態(tài)、安全可靠的軟件生態(tài)、開放便捷的應(yīng)用生態(tài),而且全都是對整個(gè)行業(yè)開放的。
這一計(jì)劃凝結(jié)了全行業(yè)的力量,旨在開發(fā)開放的、多供應(yīng)商的AIGC系統(tǒng),通過RAG(檢索增強(qiáng)生成)技術(shù),提供一流的部署便利性、性能和價(jià)值。
對于企業(yè)當(dāng)前正在標(biāo)準(zhǔn)云基礎(chǔ)設(shè)施上運(yùn)行的大量專有數(shù)據(jù)源,RAG可以幫助他們通過開放大語言模型進(jìn)行功能上的增強(qiáng),從而加速AIGC在企業(yè)中的應(yīng)用。
在Intel看來,堅(jiān)持開源開放,并以此撬動(dòng)開放的AI生態(tài)飛速發(fā)展,至關(guān)重要。
Intel副總裁、Intel中國軟件和先進(jìn)技術(shù)事業(yè)部總經(jīng)理李映在接受采訪時(shí)表示:“傳統(tǒng)模式中,幾家領(lǐng)導(dǎo)公司組建一個(gè)開放聯(lián)盟,各自有明確分工,更多的是一個(gè)選擇問題。如今基于AI大模型的變化,開放開源第一次和整個(gè)行業(yè)的技術(shù)創(chuàng)新爆發(fā)結(jié)合在一起。現(xiàn)在,開放開源和閉源同時(shí)出現(xiàn),不再是選擇,而是一個(gè)自然演變、發(fā)展的過程。”
Intel院士、大數(shù)據(jù)技術(shù)全球首席技術(shù)官、大數(shù)據(jù)分析和人工智能創(chuàng)新院院長戴金權(quán)也指出,一個(gè)開放的生態(tài),可以讓同一生態(tài)的創(chuàng)新相互促進(jìn),在新的應(yīng)用場景可以互通。
整個(gè)行業(yè)都在逐漸意識到,構(gòu)建一個(gè)AIGC應(yīng)用,并不是只需要一個(gè)大模型,一些最先進(jìn)的系統(tǒng)解決方案,其實(shí)更多的是相當(dāng)于構(gòu)建一個(gè)AI系統(tǒng)來解決問題。
在這個(gè)企業(yè)AI開放平臺中,Intel的一個(gè)突出重點(diǎn)就是加快構(gòu)建開放的AI軟件生態(tài),通過構(gòu)建基礎(chǔ)軟件為開發(fā)者提供便利,幫助大企業(yè)簡化和深入AI的大規(guī)模開發(fā)和部署。
李映指出,在開放AI軟件生態(tài)方面,對于Intel而言,非常重要的一個(gè)點(diǎn)是如何通過軟件加速企業(yè)AI的發(fā)展,如何把企業(yè)原來的云架構(gòu)和未來基于大模型、數(shù)據(jù)的AI架構(gòu)融合在一起。
軟件可以在這個(gè)過程中起到非常重要的加速作用,而從整個(gè)軟件堆棧的角度來講,Intel正是極少數(shù)可以真正在各個(gè)層面上通過軟件提供優(yōu)化、提供技術(shù)的頭部企業(yè)之一。
同時(shí),Intel一直在極力推動(dòng)基于AI的軟件創(chuàng)新,最典型的就是oneAPI,下載量已經(jīng)超過100萬次。
第三就是如何幫助開發(fā)者提高開發(fā)效率,其中很重要的一部分就是Intel開發(fā)者云平臺。
它不但可以讓開發(fā)者最早接觸到最新的至強(qiáng)、Gaudi AI加速器,還能保證各種開源框架、組件在同一環(huán)境中的兼容性,從而提升開發(fā)效率、優(yōu)化用戶體驗(yàn)。
另外非常值得一提的是,Intel也在積極為開源社區(qū)貢獻(xiàn)技術(shù)、創(chuàng)新和經(jīng)驗(yàn),推進(jìn)開放標(biāo)準(zhǔn)。
比如,PyTorch已逐漸成為標(biāo)準(zhǔn)的AI框架,Intel一直都是PyTorch非??壳暗闹匾暙I(xiàn)者,并以高級會(huì)員的身份加入了PyTorch基金會(huì)。
除了對PyTorch本身進(jìn)行優(yōu)化,Intel的一些技術(shù)創(chuàng)新都投入到了PyTorch開源框架之中,讓更多企業(yè)和開發(fā)者共享,讓整個(gè)AI軟件框架更加開源、開放。
再比如openEuler、龍蜥這些開源的中國Linux社區(qū),Intel對其的投入都已經(jīng)和國際同步,甚至在某些領(lǐng)域領(lǐng)先于國際上其他一些Linux的分布和發(fā)展。
最后再來回顧一下Intel本次揭曉的三大算力產(chǎn)品。
Gaudi 3 AI加速器采用臺積電5nm工藝,配備8個(gè)矩陣引擎、64個(gè)張量核心、96MB SRAM緩存、1024-bit 128GB HBM2E內(nèi)存(帶寬3.7TB/s),還有16個(gè)PCIe 5.0通道、24個(gè)2000GbE網(wǎng)絡(luò)、JPEG/VP9/H.264/H.265解碼器。
功耗有600/900W兩個(gè)級別,提供OAM兼容夾層卡、通用基板、PCIe擴(kuò)展卡三種形態(tài)。
Gaudi 3相比上代擁有2倍的FP8 AI算力(1835TFlops)、4倍的BF16 AI算力、2倍的網(wǎng)絡(luò)帶寬、1.5倍的內(nèi)存帶寬。
Intel還聲稱,它對比NVIDIA H100 LLM推理性能領(lǐng)先50%、訓(xùn)練時(shí)間快40-70%,能效領(lǐng)先最多達(dá)2.3倍。
另外,得益于強(qiáng)大、便捷的開發(fā)工具,開發(fā)者最少只需改變3行代碼,就能將其他AI應(yīng)用移植到Gaudi 3之上。
全新的至強(qiáng)6包含兩個(gè)分支,其中Sierra Forest第二季度發(fā)布,堪稱至強(qiáng)處理器歷史上最大的一次變革,首次采用純能效核(E核)設(shè)計(jì)。
它重點(diǎn)針對效率進(jìn)行優(yōu)化,適合高密度、可擴(kuò)展的工作負(fù)載,最多288核心288線程。
按照官方說法,相比第二代至強(qiáng),Sierra Forest可以帶來2.4倍的能效提升,機(jī)架密度則可以提高2.7倍。
Granite Rapids則是傳統(tǒng)的純性能核(P核)設(shè)計(jì),重點(diǎn)針對性能優(yōu)化,適合計(jì)算密集型應(yīng)用和高強(qiáng)度的AI負(fù)載。
它新增了對MXFP4數(shù)據(jù)格式的軟件支持,能夠運(yùn)行700億參數(shù)的Llama 2大模型,對比四代至強(qiáng)能將令牌延遲縮短最多6.5倍。
代號Lunar Lake的下一代超低功耗酷睿Ultra處理器,AI算力將超過100TOPS(100萬億次每秒),是現(xiàn)有一代酷睿Ultra Meteor Lake的足足三倍!
其中,單單是NPU單元就可以提供大約45TOPS的算力,是目前的多達(dá)四倍,自己即可滿足微軟定義下一代AI PC的需求。
可以說,Intel擁有目前最為完善的AI體系,從底層覆蓋云端、數(shù)據(jù)中心端、邊緣端、客戶端的XPU硬件算力,到上層的網(wǎng)絡(luò)方案、開發(fā)工具,再到廣泛的生態(tài)合作,如今又組建了開放的企業(yè)AI平臺,可以說萬事俱備,在AI訓(xùn)練與他推理、AIGC領(lǐng)域必定會(huì)有一番作為。
評論