新聞中心

EEPW首頁 > 智能計算 > 市場分析 > AI戰(zhàn)場炮火紛飛

AI戰(zhàn)場炮火紛飛

作者: 時間:2023-10-25 來源:半導(dǎo)體產(chǎn)業(yè)縱橫 收藏

芯片領(lǐng)域,是無可爭議的霸主。今年中旬,市值突破萬億美元大關(guān),僅次于蘋果、微軟、Alphabet 和亞馬遜,成為美國第五大市值公司。

本文引用地址:http://m.butianyuan.cn/article/202310/452050.htm

預(yù)計今年 Q3 營收為 160 億美元,同比增長約 170%,這一數(shù)字幾乎是一年前水平的 3 倍。業(yè)績暴走是市場火熱的象征,英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:「一個新的計算時代已經(jīng)開始。全球各地的公司正在從通用計算向加速計算和生成式 轉(zhuǎn)型?!?/p>

與此同時, 芯片成為各家企業(yè)逐鹿的一個戰(zhàn)略重地,這也意味著英偉達在業(yè)績高漲的同時,還需要面對來自市場競爭的壓力,這些壓力不僅來自于 AMD 和英特爾等勁敵,還有許多雄心勃勃的初創(chuàng)公司。

AMD 和 Intel「圍攻」英偉達

AMD:補軟件短板,鍛硬件長板

AMD 呼聲比較高的兩款產(chǎn)品是 MI250 和 MI300。MI250 在 2021 年年底發(fā)布,從發(fā)布之時 AMD 公布的基準測試結(jié)果來看,AMD Instinct MI250X 對比 NVIDIA A100 占據(jù)了絕對的性能優(yōu)勢,是對方的 1.4 倍到 3.05 倍之間,當時 AMD 宣稱 Instinct MI250X 是世界上性能最強的 HPC 計算卡。

雖然硬件規(guī)格高是 AMD 的一項優(yōu)勢,軟件生態(tài)環(huán)境弱卻是 AMD 的劣勢。今年 6 月,AMD 推出大語言模型專用的最新加速卡 Instinct MI300X。據(jù) AMD 首席執(zhí)行官蘇姿豐介紹稱,MI300X 提供的高帶寬內(nèi)存(HBM)密度是英偉達 H100 的 2.4 倍,HBM 帶寬是競品的 1.6 倍。

與 MI250 相似的問題出現(xiàn)在 MI300X 中,盡管硬件規(guī)格參數(shù)強悍,但目前 MI300X 還未被廣泛應(yīng)用。不過,MI300X 在 AI 市場的呼聲還是比較高的,華爾街分析師普遍認為,AMD 的這款芯片將對目前掌握 AI 芯片市場逾八成份額的英偉達構(gòu)成有力挑戰(zhàn),這款 MI300X 加速器,有望替代英偉達的同類產(chǎn)品。

天風(fēng)國際分析師郭明錤也在社交平臺上表示,AMD 的 AI 芯片出貨量預(yù)計在 2024 年、2025 年快速增長。到 2024 年,AMD 的 AI 芯片出貨量(主要是 MI300A)預(yù)計將達到英偉達出貨量的約 10%,微軟有望成為 AMD AI 芯片的最大客戶,緊隨其后的是亞馬遜。如果微軟與 AMD 的合作進展順利,AMD 獲得 Meta 和谷歌的訂單,預(yù)計 2025 年 AMD 的 AI 芯片出貨量將達到英偉達(基于 CoWoS 封裝技術(shù))的 30% 或更多。

為了補齊短板,AMD 不斷招兵買馬,擴大 AI 技術(shù)實力。

10 月 10 日,AMD 在官網(wǎng)宣布,其已簽署收購開源 AI 軟件公司 Nod.ai 的最終協(xié)議,此舉旨在增強公司的開源 AI 能力。Nod.ai 加入 AMD 將帶來一支經(jīng)驗豐富的團隊,該團隊開發(fā)了業(yè)界領(lǐng)先的軟件技術(shù),可加速針對 AMD Instinct 數(shù)據(jù)中心加速器、RyzenAI 處理器、EPYC 處理器、Versal SoC 和 Radeon GPU 等優(yōu)化 AI 解決方案的部署。

AMD 人工智能集團高級副總裁 Vamsi Boppana 表示:「收購 Nod.ai 預(yù)計將大大增強我們?yōu)?AI 客戶提供開發(fā)軟件的能力,使他們能夠輕松部署針對 AMD 硬件調(diào)整的高性能 AI 模型?!?/p>

今年 8 月,AMD 宣布收購法國 AI 初創(chuàng)公司 Mipsology。Mipsology 成立于 2015 年,是 AMD 的長期合作伙伴,此前一直為 AMD 開發(fā) AI 推理與優(yōu)化解決方案和工具。

可以看到,AMD 正大舉投資于 AI 芯片所需的關(guān)鍵軟件,以追趕頭號對手英偉達。

Intel:用性價比挑戰(zhàn)英偉達

在 GPU 領(lǐng)域,英特爾也將向英偉達發(fā)起挑戰(zhàn)。從英特爾的動作看,今年最受關(guān)注的便是 Gaudi 系列。

2022 年,英特爾宣布,推出第二代深度學(xué)習(xí)芯片 Habana Gaudi 2 和 Habana Greco,分別用于 AI 訓(xùn)練和 AI 推理。隨后在今年 7 月,英特爾為中國市場推出定制版深度學(xué)習(xí)處理器 Habana Gaudi 2,可用于加速 AI 訓(xùn)練及推理,包括浪潮信息、新華三、超聚變等公司,預(yù)計將推出搭載 Gaudi 2 的服務(wù)器產(chǎn)品。

Gaudi 2 作為一款專用 AI 加速芯片,雖在性能上落后于目前英偉達最高端的 H100 芯片,但相比英偉達的通用 GPU A100 和 H100,其服務(wù)器成本更低,價格優(yōu)勢也更為明顯。

針對中國市場推出定制版的 Gaudi 2,英特爾爭奪市場的野心可見一斑。之后英特爾新路線圖的公布再次證明這一點。

今年 9 月,在美國圣何塞舉辦的英特爾 On 技術(shù)創(chuàng)新大會上,基辛格亮出了英特爾最新的三代 AI 芯片路線圖,其中采用 5nm 制程的 Gaudi 3 將于 2024 年推出,再下一代 AI 芯片代號為 Falcon Shores,計劃于 2025 年推出。其中 Gaudi 3 的算力將達到 Gaudi 2 的兩倍,網(wǎng)絡(luò)帶寬、HBM 容量將達到 Gaudi 2 的 1.5 倍。

Habana 原為以色列初創(chuàng)芯片公司,2016 年成立,旗下產(chǎn)品曾滲透進入中國主要互聯(lián)網(wǎng)公司,2019 年 12 月,英特爾以 20 億美元收購 Habana。規(guī)劃中的 AI 新品 Falcon Shores 將在 Habana 的架構(gòu)基礎(chǔ)上,和英特爾原有的 GPU 等技術(shù)進行融合,因此 Falcon Shores 也備受業(yè)內(nèi)關(guān)注。

與 AMD 一樣,英特爾亦極其看重 AI 芯片的軟件生態(tài)建設(shè),英特爾正在加快構(gòu)建一個開放的 AI 軟件生態(tài)系統(tǒng),以打破專有的封閉式生態(tài)系統(tǒng)格局。

英特爾公司執(zhí)行副總裁數(shù)據(jù)中心與人工智能事業(yè)部總經(jīng)理 Sandra L. Rivera 稱,從英特爾看到,開發(fā)者通常從 Pytorch、Tensor Flow 等 AI 框架層從事 AI 創(chuàng)新工作,在底層方面,英特爾采用了 OneAPI(一種統(tǒng)一編程模型和應(yīng)用程序接口)對標英偉達的 CUDA,利用 OneAPI 提供的優(yōu)化庫,希望以打包的平臺方案整合自家龐雜的產(chǎn)品路線,降低客戶對底層硬件差異的敏感度。

英特爾正通過不斷優(yōu)化的軟硬件組合,實現(xiàn)最佳的性能和規(guī)模,從而邁向「讓 AI 無處不在」的目標。

在 ChatGPT 引發(fā)的大模型熱潮中,大模型訓(xùn)練需求增多,使得英偉達用于訓(xùn)練大模型的 A100/H100 更加稀缺。除英特爾與 AMD 外,也不乏有一些云服務(wù)器等科技巨頭下場自研 AI 芯片。

微軟、OpenAI 等科技巨頭自研 AI 芯片

10 月 6 日,據(jù)外媒 The Information 報道,微軟即將于下個月公布自行研發(fā)的 AI 芯片,從而協(xié)助減少對英偉達 GPU 的依賴,該 AI 芯片代號為 Athena,預(yù)計微軟將在 11 月 14-17 日的 Ignite 開發(fā)者大會上宣布這款自行研發(fā)的芯片。

同一天,媒體消息稱,ChatGPT 開發(fā)商 OpenAI 也正在探索 AI 芯片的可能性,并已評估潛在的收購目標,以加速自研芯片的進程。

據(jù)悉,自 2019 年以來,微軟就開始研發(fā)一款名為"雅典娜"(Athena)的定制 AI 芯片,用于為大型語言模型提供動力,目前已在測試階段。同年,微軟向 ChatGPT 的所有者 OpenAI 投下 10 億美元,隨后在今年 1 月微軟再向 OpenAI 加注 100 億美元。

據(jù)悉,與 OpenAI 合作之后的微軟每個月可能需要數(shù)十萬顆英偉達芯片,也正因此 Athena 的首個目標是為 OpenAI 提供算力引擎,以替代昂貴的英偉達 A100/H100。如果明年大規(guī)模推出,Athena 將允許微軟內(nèi)部和 OpenAI 的團隊同時訓(xùn)練和推理模型。

SemiAnalysis 的分析師迪倫·帕特爾(Dylan Patel)表示,開發(fā)類似于雅典娜的芯片可能每年需要花費 1 億美元左右,ChatGPT 每天的運營成本約 70 萬美元,大部分成本來源于昂貴的服務(wù)器,如果雅典娜芯片與英偉達的產(chǎn)品擁有同等競爭力,每個芯片的成本將可以降低三分之一。

不只是微軟和 OpenAI,為了降低成本、減少對英偉達的依賴、提高議價能力,谷歌、亞馬遜、Meta 等科技巨頭們都已下場自研 AI 芯片。

想要在 AI 熱潮中分得一口湯的還有不少野心勃勃的初創(chuàng)公司。

雄心勃勃的初創(chuàng)公司

2019 年創(chuàng)立的 d-Matrix

今年 9 月,位于美國硅谷的 AI 芯片初創(chuàng)公司 d-Matrix 獲得 1.1 億美元的 B 輪融資,由新加坡頂尖投資公司淡馬錫(Temasek)領(lǐng)投,加州風(fēng)投公司 Playground Global、微軟和三星等 14 家投資者跟投。

d-Matrix 由兩位 AI 硬件領(lǐng)域的資深人士 Sid Sheth 和 Sudeep Bhoja 于 2019 年 5 月創(chuàng)立。據(jù)領(lǐng)英顯示,d-Matrix 目前有大約 100 名員工,公司致力于構(gòu)建一種使用存內(nèi)計算(In-Memory Computing,IMC)技術(shù)和芯片級橫向擴展互連進行數(shù)據(jù)中心 AI 推理的新方法。據(jù)稱,該處理器將提供比 CPU 和 GPU 更快的 AI 推理性能,適用于大型 Transformer 模型。

d-Matrix 認為,在 AI 領(lǐng)域雖然存在英偉達這樣難以撼動的龍頭企業(yè),但自己與英偉達不同,部分原因在于其技術(shù)針對的是 AI 處理過程中的「推理」(Inference)環(huán)節(jié),而不是通過制造訓(xùn)練大型 AI 模型的技術(shù)來與英偉達競爭。基于 Transformer 的模型通常在高性能 GPU 上進行訓(xùn)練,但執(zhí)行推理是一個能效問題,而不僅僅是性能問題。d-Matrix 提出了一種創(chuàng)新解決方案,聲稱可以將硬件的效率提高 10-30 倍。

據(jù)悉,微軟已承諾在明年公司研發(fā)的芯片推出時對其進行評估。d-Matrix 公司預(yù)計今年將獲得 1000 萬美元左右的收入,主要來自購買芯片進行評估的客戶;預(yù)計兩年后年收入將達到 7000 萬至 7500 萬美元,實現(xiàn)收支平衡。

2018 年成立的 Rain Neuromorphics Atomic Semi Cerebras

Rain Neuromorphics Atomic Semi Cerebras 由臺積電前工程副總 Keith McKay 在 2018 年創(chuàng)立,總部位于美國加利福尼亞州,曾以推出超大芯片而引發(fā)關(guān)注。

其 AI 超算處理器 Cerebras WSE 比 iPad 還要大。二代擁有 2.6 萬億個晶體管和 85 萬個 AI 優(yōu)化內(nèi)核。它們還發(fā)布過一種 brain-scale 技術(shù),可以運行超過 120 萬億個連接的神經(jīng)網(wǎng)絡(luò)。今年 Cerebras 還一口氣開源了 7 個 GPT 模型,參數(shù)量分別達到 1.11 億、2.56 億、5.9 億、13 億、27 億、67 億和 130 億,同時 Cerebras 也提供大模型訓(xùn)練推理等云服務(wù)。

目前為止,該公司已融資 7.2 億美元。據(jù)悉,OpenAI 已參投了至少三家芯片公司,Rain Neuromorphics 就在列,其余兩家是 Cerebras 和 Atomic Semi。

2022 年創(chuàng)立的 Modular

Modular 是一家美國的初創(chuàng)企業(yè),成立于 2022 年。去年 6 月,Modular 完成了由 GV 領(lǐng)投、Greylock、SV Angel 和 The Factory 參與的 3000 萬美元種子輪融資。隨后在今年 8 月,Modular 又獲得了 1.3 億美元的 A 輪融資,本輪融資由 General Catalyst 領(lǐng)投,GV、SV Angel 等參與。

Modular 表示,英偉達的 CUDA 軟件用于編寫只能在其 GPU 上運行的機器學(xué)習(xí)應(yīng)用程序,而它們通過其軟件為企業(yè)提供了另一種選擇,使開發(fā)者可以更簡單地在其他公司設(shè)計的芯片上訓(xùn)練和運行機器學(xué)習(xí)模型,例如英特爾、AMD 和 Google。它還提高了這些芯片的性能,意味著它們可以用來訓(xùn)練更強大的人工智能模型。

除了上述幾家公司之外,2017 年成立并致力于使用硅光芯片實現(xiàn)深度學(xué)習(xí)的美國 AI 初創(chuàng)公司 Lightmatter、2022 年成立并致力于開發(fā)用于文本應(yīng)用的大語言模型(LLM)專用芯片的公司 MatX、成立于 2022 年并旨在使人工智能計算更具可訪問性和可負擔性的公司 Tiny Corp 都在努力成為具有分量的挑戰(zhàn)選手。

英偉達的戰(zhàn)略

英偉達面臨來自 AMD、英特爾以及一系列大型科技、初創(chuàng)公司的競爭,這是一個極為突出的話題。英偉達有它難以超越的優(yōu)勢也自然有不可避免的劣勢。

先看優(yōu)勢。英偉達占據(jù)全球數(shù)據(jù)中心 AI 加速市場 82% 的份額,以 95% 的市場占有率壟斷了全球 Al 訓(xùn)練領(lǐng)域的市場,也就是說,即使當下已經(jīng)有諸多公司進入 AI 市場,但是這些沒有市場優(yōu)勢的公司可能也難以產(chǎn)生足夠的利潤。

此外,雖然 AMD 和英偉達都能提供不同價位和性能的 GPU 產(chǎn)品,但在性能方面,英偉達擁有明顯的整體領(lǐng)先優(yōu)勢。這一標準更是這些初創(chuàng)公司難以短期內(nèi)達到的,雖然如今的 AI 市場中已有部分主要參與者開始試驗新的 AI 芯片和工具,但倘若想要以性價比取勝,仍需很長時間。

再看劣勢。首當其沖便是價格,昂貴的單價也是勸退多家科技巨頭依賴外購芯片的主因。另外英偉達提供的全棧服務(wù)結(jié)合了硬件和軟件解決方案,但這種全棧服務(wù)也可能成為吸引新客戶的阻力。很少有大客戶愿意永久依賴于一個生態(tài)系統(tǒng),這會使他們在未來處于價格劣勢。這也是亞馬遜拒絕英偉達的 DGX 云平臺的原因之一,相比之下 AMD 可以為客戶提供更大的靈活性。

如此看來,想必在未來幾年,英偉達將面臨激烈的競爭,能否守住龍頭地位,成為英偉達面臨的重要問題。



關(guān)鍵詞: AI 英偉達

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉