高通、谷歌和英特爾聯(lián)手打造開源軟件,能否打破英偉達(dá)CUDA統(tǒng)治地位
3月26日,由高通、谷歌、英特爾等科技巨頭聯(lián)合參與的UXL基金會(huì)宣布,將啟動(dòng)一項(xiàng)開源軟件開發(fā)計(jì)劃,為多種AI加速器芯片提供跨平臺(tái)支持,推動(dòng)AI技術(shù)的普及和應(yīng)用,有望為整個(gè)行業(yè)帶來(lái)更加開放和靈活的發(fā)展環(huán)境。
本文引用地址:http://m.butianyuan.cn/article/202403/456880.htm該項(xiàng)目旨在實(shí)現(xiàn)計(jì)算機(jī)代碼在不同芯片和硬件平臺(tái)上的無(wú)縫運(yùn)行,消除特定編碼語(yǔ)言、代碼庫(kù)和其他工具等要求,使開發(fā)人員不再受使用特定架構(gòu)(如英偉達(dá)的CUDA平臺(tái))的束縛。高通AI與機(jī)器學(xué)習(xí)主管Vinesh Sukumar表示,“我們實(shí)際上是在向開發(fā)者展示如何從英偉達(dá)平臺(tái)遷移出來(lái)”。
據(jù)悉,UXL的技術(shù)指導(dǎo)委員會(huì)準(zhǔn)備于2024年上半年確定技術(shù)規(guī)格,工程師則計(jì)劃在年底前將技術(shù)細(xì)節(jié)完善至“成熟”狀態(tài)。
自去年9月份推出以來(lái),UXL已經(jīng)開始收到來(lái)自基金會(huì)成員和外部人士的第三方技術(shù)貢獻(xiàn),其中包括基金會(huì)成員和熱衷于使用開源技術(shù)的外部人士。英特爾的OneAPI已經(jīng)可用,而下一步是創(chuàng)建專為AI設(shè)計(jì)的標(biāo)準(zhǔn)計(jì)算編程模型。UXL計(jì)劃將其資源用于解決由少數(shù)芯片制造商主導(dǎo)的最緊迫的計(jì)算問題,例如最新的AI應(yīng)用和高性能計(jì)算應(yīng)用。這些早期計(jì)劃符合該組織的長(zhǎng)期目標(biāo),即贏得足夠數(shù)量的開發(fā)者使用其平臺(tái)。
除了谷歌、高通、英特爾之外,UXL還尋求亞馬遜、微軟以及其他芯片公司的支持,可能對(duì)英偉達(dá)在AI領(lǐng)域的市場(chǎng)地位構(gòu)成一定挑戰(zhàn),打破CUDA“一家獨(dú)大”的局面。從長(zhǎng)遠(yuǎn)的角度來(lái)看,由于英偉達(dá)CUDA產(chǎn)生的深遠(yuǎn)影響力,UXL的最終目標(biāo)是支持英偉達(dá)硬件和CUDA生態(tài)代碼。
根據(jù)PitchBook的數(shù)據(jù),為了削弱英偉達(dá)在AI軟件領(lǐng)域的主導(dǎo)地位,風(fēng)險(xiǎn)投資家和企業(yè)資金已經(jīng)向93個(gè)不同的項(xiàng)目投入了超過40億美元,其中UXL基金會(huì)的計(jì)劃只是眾多努力之一。僅2023年,致力于挑戰(zhàn)英偉達(dá)領(lǐng)導(dǎo)地位的初創(chuàng)公司獲得了超過20億美元的投資,相比之下,一年前這一數(shù)字僅為5.8億美元,市場(chǎng)對(duì)于通過軟件潛在弱點(diǎn)撼動(dòng)英偉達(dá)地位的興趣急劇增長(zhǎng)。
CUDA已經(jīng)深深植根于許多人工智能和高性能計(jì)算項(xiàng)目中,改變現(xiàn)狀需要克服巨大的慣性和依賴。對(duì)于那些希望在英偉達(dá)的陰影下取得成功的初創(chuàng)公司來(lái)說,他們不僅需要提供具有競(jìng)爭(zhēng)力的技術(shù),還需要克服用戶對(duì)現(xiàn)有技術(shù)的深厚依賴。CUDA軟件之所以重要,不僅在于其軟件的功能,更在于人們已經(jīng)使用CUDA長(zhǎng)達(dá)15年,圍繞它構(gòu)建了大量代碼。這才是真正重要的。
從Claude到OpenAI等熱門的AI初創(chuàng)公司,再到全球云服務(wù)巨頭微軟、亞馬遜旗下AWS以及Alphabet旗下的谷歌,英偉達(dá)所推出的超高性能AI芯片,以及軟硬件協(xié)同系統(tǒng)CUDA,已經(jīng)成為微軟、OpenAI等新時(shí)代人工智能開發(fā)者們的“生命線”。
在一些AI工程師看來(lái),英偉達(dá)能夠在AI芯片市場(chǎng)斬獲高達(dá)90%的壟斷性的份額,主要?dú)w功于其高性能AI GPU和軟硬件協(xié)同系統(tǒng)CUDA。但是工程師們普遍認(rèn)為,隨著英偉達(dá)競(jìng)爭(zhēng)對(duì)手AMD以及Groq等AI芯片初創(chuàng)公司紛紛推出性能比肩英偉達(dá)的AI芯片,CUDA這一軟硬件協(xié)同運(yùn)算平臺(tái)“壟斷性的優(yōu)勢(shì)”才是英偉達(dá)壟斷AI芯片市場(chǎng)的最核心?;贑UDA的AI軟硬件一體化系統(tǒng)為英偉達(dá)創(chuàng)建了一條極其寬闊的“護(hù)城河”,使得AMD等競(jìng)爭(zhēng)對(duì)手很難與英偉達(dá)在部署AI應(yīng)用方面相匹配。
上個(gè)月,英偉達(dá)成為首家市值達(dá)到2萬(wàn)億美元的芯片制造商,在專注于為人工智能模型提供動(dòng)力的硬件(如H100和即將推出的H200 GPU)之后,英偉達(dá)實(shí)現(xiàn)了快速增長(zhǎng)。這些英偉達(dá)芯片將開發(fā)者鎖定在使用CUDA架構(gòu)上,在2023年的Computex主題演講中,英偉達(dá)首席執(zhí)行官黃仁勛表示有400萬(wàn)開發(fā)者正在使用CUDA計(jì)算模型。
CUDA作為一種并行計(jì)算平臺(tái)和應(yīng)用程序編程接口(API),它允許軟件開發(fā)者使用英偉達(dá)的GPU進(jìn)行高性能計(jì)算,使得英偉達(dá)的GPU在人工智能、科學(xué)計(jì)算和圖形處理等領(lǐng)域發(fā)揮關(guān)鍵作用。更加重要的是,這種加速技術(shù)僅通過提供英偉達(dá)特定的API、各種庫(kù)和編譯器支持,使得在英偉達(dá)GPU上的并行計(jì)算更加高效且非常易于AI軟件的核心 —— 即AI大模型的開發(fā)工作,因此CUDA可謂是開發(fā)ChatGPT等生成式AI應(yīng)用極度依賴的平臺(tái),其重要性與硬件體系不分上下,對(duì)于人工智能大模型的開發(fā)和部署至關(guān)重要。
UXL基金會(huì)的計(jì)劃如果能夠成功實(shí)施,不僅是技術(shù)上的一次突破,更是對(duì)英偉達(dá)長(zhǎng)期以來(lái)在AI加速器市場(chǎng)壟斷地位的一次直接挑戰(zhàn),將會(huì)為整個(gè)行業(yè)帶來(lái)新的活力和可能性,特別是在開放源代碼和技術(shù)共享方面。
評(píng)論