博客專欄

EEPW首頁 > 博客 > 融資6.4億美元,AI芯片公司迅速崛起,Yann LeCun出任技術顧問

融資6.4億美元,AI芯片公司迅速崛起,Yann LeCun出任技術顧問

發(fā)布人:旺材芯片 時間:2024-08-06 來源:工程師 發(fā)布文章

圖片

Groq是一家開發(fā)芯片以比傳統(tǒng)處理器更快地運行生成式 AI 模型的初創(chuàng)公司,該公司周一表示,已在由貝萊德 (Blackrock) 領投的新一輪融資中籌集了 6.4 億美元。Neuberger Berman、Type One Ventures、思科、KDDI 和三星 Catalyst Fund 也參與其中。


這筆資金使 Groq 的總融資額超過 10 億美元,公司估值達到 28 億美元,這對 Groq 來說是一次重大勝利,據(jù)報道,該公司最初希望以略低的估值(25 億美元)籌集3 億美元。這筆資金是 Groq 在 2021 年 4 月的先前估值(約 10 億美元)的兩倍多,當時該公司在 Tiger Global Management 和 D1 Capital Partners 領投的一輪融資中籌集了 3 億美元。


Meta 首席人工智能科學家 Yann LeCun 將擔任 Groq 的技術顧問,英特爾代工業(yè)務前負責人、惠普前首席信息官 Stuart Pann 將加入這家初創(chuàng)公司擔任首席運營官,Groq 今天還宣布了這一消息??紤]到 Meta 在自己的人工智能芯片上的投資,LeCun 的任命有點出人意料——但毫無疑問,這讓 Groq 在競爭激烈的領域獲得了一個強大的盟友。


Groq 于2016 年嶄露頭角,目前正在開發(fā)所謂的 LPU(語言處理單元)推理引擎。該公司聲稱,其 LPU 可以運行現(xiàn)有的生成式 AI 模型,其架構與 OpenAI 的ChatGPT和GPT-4o類似,速度是后者的 10 倍,能耗僅為后者的十分之一。


Groq 首席執(zhí)行官喬納森·羅斯 (Jonathan Ross) 因幫助發(fā)明張量處理單元 (TPU)而聲名鵲起 ,這是谷歌用于訓練和運行模型的定制 AI 加速器芯片。近十年前,羅斯與企業(yè)家、谷歌母公司 Alphabet X 登月實驗室前工程師道格拉斯·懷特曼 (Douglas Wightman) 合作,共同創(chuàng)立了 Groq。


Groq 提供了一個由 LPU 驅動的開發(fā)者平臺,名為 GroqCloud,該平臺提供“開放”模型,如 Meta 的 Llama 3.1 系列、谷歌的 Gemma、OpenAI 的 Whisper 和 Mistral 的 Mixtral,以及允許客戶在云實例中使用其芯片的 API。(Groq 還為去年年底推出的人工智能聊天機器人 GroqChat 提供了一個游樂場。)截至 7 月,GroqCloud 擁有超過 356,000 名開發(fā)人員;Groq 表示,本輪融資的部分收益將用于擴大容量并添加新模型和功能。


Groq 首席運營官 Stuart Pann 告訴 TechCrunch:“這些開發(fā)人員中有很多都在大型企業(yè)工作。據(jù)我們估計,財富 100 強企業(yè)中有超過 75% 的人都在使用 Groq?!?/p>


隨著生成式人工智能的持續(xù)熱潮,Groq 面臨著來自其他人工智能芯片新貴以及人工智能硬件領域強大巨頭 Nvidia 日益激烈的競爭。


據(jù)估計,Nvidia 控制著用于訓練和部署生成式 AI 模型的 AI 芯片市場的 70% 至 95%,該公司正在采取積極措施來保持其主導地位。


Nvidia 承諾每年發(fā)布一款新的 AI 芯片架構,而不是像以往那樣每隔一年發(fā)布一款。據(jù)報道,該公司正在建立一個新的業(yè)務部門,專注于為云計算公司和其他公司設計定制芯片,包括 AI 硬件。


除了 Nvidia,Groq 還與亞馬遜、谷歌和微軟競爭,這些公司都提供(或即將提供)用于云端 AI 工作負載的定制芯片。亞馬遜擁有 Trainium、Inferentia 和 Graviton 處理器,可通過 AWS 獲得;谷歌云客戶可以使用上述 TPU,并適時使用谷歌的Axion芯片;微軟最近為其 Cobalt 100 CPU 推出了 Azure 實例預覽版,Maia 100 AI Accelerator 實例將在未來幾個月內推出。


一些分析師認為,在未來五年內,人工智能芯片市場的年銷售額可能達到 4000 億美元,Groq 可能會將 Arm、英特爾、AMD 以及越來越多的初創(chuàng)公司視為競爭對手。Arm和AMD 的人工智能芯片業(yè)務尤其蓬勃發(fā)展,這要歸功于云供應商為滿足生成式人工智能的容量需求而不斷增加的資本支出。


D-Matrix 去年年底籌集了 1.1 億美元,用于將其所謂的首創(chuàng)推理計算平臺商業(yè)化。今年 6 月,Etched以 1.2 億美元的價格脫穎而出,購買了一款定制處理器,用于加速當今占主導地位的生成式 AI 模型架構,即 transformer。據(jù)報道,軟銀的孫正義正尋求籌集 1000 億美元成立一家芯片企業(yè),與 Nvidia 競爭。據(jù)說 OpenAI 正在 與 投資公司洽談啟動一項 AI 芯片制造計劃。


為了開拓自己的市場,Groq 正在大力投資企業(yè)和政府推廣。


今年 3 月,Groq收購了Definitive Intelligence,后者是一家總部位于帕洛阿爾托的公司,提供一系列面向企業(yè)的 AI 解決方案,并組建了一個名為 Groq Systems 的新業(yè)務部門。Groq Systems 的業(yè)務范圍包括為希望將 Groq 芯片添加到現(xiàn)有數(shù)據(jù)中心或使用 Groq 處理器構建新數(shù)據(jù)中心的組織(包括美國政府機構和主權國家)提供服務。


最近,Groq 與政府 IT 承包商 Carahsoft 合作,通過 Carahsoft 的經銷商合作伙伴向公共部門客戶銷售其解決方案,并且該初創(chuàng)公司已簽署意向書,準備在歐洲公司 Earth Wind & Power 的挪威數(shù)據(jù)中心安裝數(shù)萬個 LPU。


Groq 還與沙特阿拉伯咨詢公司 Aramco Digital 合作,在中東未來的數(shù)據(jù)中心安裝 LPU。


在建立客戶關系的同時,總部位于加州山景城的 Groq 也在向下一代芯片邁進。去年 8 月,該公司宣布將與三星的代工業(yè)務簽約生產 4nm LPU,預計這些 LPU 的性能和效率將超過 Groq 的第一代 13nm 芯片。


Groq 表示,計劃到 2025 年第一季度末部署超過 108,000 個 LPU。


風險投資持續(xù)流入人工智能初創(chuàng)企業(yè)


Groq 并不是唯一一家成功利用人工智能炒作的基礎設施供應商。事實上,6.4億美元遠不是我們近年來看到的初創(chuàng)公司獲得的最大一筆收入。


您可能還記得,早在 5 月份,GPU 巨頭 CoreWeave 就在 C 輪融資中獲得了11 億美元,幾周后它就成功說服黑石集團、貝萊德和其他公司以其 GPU 作為抵押獲得75 億美元貸款。


與此同時,另一家 GPU 云運營商 Lambda Labs 自 2 月份以來利用其 GPU 緩存獲得了總計 8.2 億美元的新資金和債務融資,但看起來它還不滿足。上個月我們了解到,據(jù)報道,Lambda 正在與風險投資公司洽談再獲得 8 億美元的資金,以支持部署更多 Nvidia GPU。


盡管風險投資資金不斷流入人工智能初創(chuàng)企業(yè),但華爾街的一些人似乎越來越擔心這些數(shù)十億美元的人工智能基礎設施投資是否會帶來回報。


但這并沒有阻止 Cerebras 等機器學習新貴尋求首次公開募股 (IPO)。上周,這家以餐盤大小的模型訓練加速器而聞名的公司透露,它已秘密申請公開上市。


首次公開募股的規(guī)模和價格范圍尚未確定。Cerebras 對人工智能訓練問題采取了相當不同尋常的方法,幫助它從 G42 等公司獲得了超過 9 億美元的承諾。


與此同時,除了英特爾這個相當引人注目的例外(英特爾計劃裁員至少 15%,第二季度利潤同比下降 16 億美元)之外,芯片供應商和轉售其加速器訪問權的云提供商一直是人工智能熱潮的最大受益者。上周,AMD透露其MI300X GPU 占其數(shù)據(jù)中心銷售額的 10 億美元以上。


然而,似乎直到本月晚些時候市場領導者 Nvidia 公布其收益和前景后,人工智能炒作列車是否會脫軌的真正試金石才會到來。


英偉達的問題,會否引起AI巨變?


最近,有新聞指出,英偉達頂級產品 Blackwell 系列“GB200”因為缺陷導致交付時間推遲了三個多月。此次延遲預計將影響微軟、谷歌和 Meta 等大型科技公司的商業(yè)計劃,這些公司原本打算利用價值數(shù)十至數(shù)百萬億韓元的 GB200 來增強其 AI 服務。行業(yè)分析師認為,全球 AI 行業(yè)的“壟斷風險”已成為現(xiàn)實,英偉達和臺積電都面臨問題,這兩家公司占據(jù)了 AI 加速器設計和生產市場 90% 以上的份額。


Blackwell 系列包括“B100”和“B200”,封裝了八個 192GB 第五代 HBM(HBM3E)和一個 GPU,而“GB200”則在兩個 B200 上增加了一個中央處理器 (CPU)。據(jù)報道,問題出現(xiàn)在頂級型號 GB200 上。盡管 GB200 的定價超過 40,000 美元(約合 5400 萬韓元),比其前身 H100 高出 30% 以上,但微軟和谷歌等客戶下了價值數(shù)十至數(shù)百萬億韓元的訂單。NVIDIA 甚至最近要求負責 Blackwell 生產的臺積電將產量提高 25%。


據(jù)市場研究公司TechInsights統(tǒng)計,去年NVIDIA在AI加速器市場的占有率高達97.2%。而代工Blackwell的臺積電,在AI加速器領域的代工市場份額預估超過95%。AI半導體供應鏈向特定企業(yè)集中,風險極大,一位半導體行業(yè)人士指出,“AI半導體供應鏈向特定企業(yè)集中,風險極大”,并預測“三星和AMD將有機會”。


專家預測,此次設計缺陷事件將加劇“反英偉達”風潮,加速大型科技公司“英偉達/臺積電替代戰(zhàn)略”。AMD和谷歌紛紛推出自研GPU,將自己定位為英偉達的競爭對手。實際動向正在觀察中。最近,微軟和谷歌向第二大AI加速器公司AMD派遣員工,共同開發(fā)下一代產品。微軟還開始采購AMD的AI加速器“MI300X”。蘋果在AI模型訓練方面,已經采用谷歌的TPU芯片,而非英偉達芯片。


NVIDIA 的“反壟斷”風險也在增加。有報道稱,美國司法部正在調查 NVIDIA 涉嫌違反反壟斷法。占據(jù)超過 80% AI 芯片市場份額的 NVIDIA 被指控威脅對試圖購買競爭對手產品的客戶進行報復。繼法國之后,另一個反壟斷風險可能會阻礙 NVIDIA 的單打獨斗。


向AMD和谷歌供應HBM的三星電子預計將受益于AI加速器市場的多元化。三星電子目前向AMD供應第4代HBM——HBM3,并已有效確保了HBM3E的供應。最近,三星還一直在推動其代工和先進封裝“交鑰匙服務”,以替代臺積電。不過,短期內,SK海力士和三星電子的HBM3E交貨時間表也預計將因這一設計缺陷而略有延遲。GB200共配備16個第5代HBM——HBM3E。由于Blackwell上市前訂單激增,SK海力士和三星電子一直在轉換生產線,專注于HBM3E。如果Blackwell的上市推遲到明年,可能會對他們今年下半年的業(yè)績產生負面影響。


盡管面臨挑戰(zhàn),但 NVIDIA 仍保持樂觀。該公司官方表示,“AI 加速器產量將在今年下半年增加。我們不會對謠言發(fā)表評論。”The Information 預測,“Blackwell AI 加速器的交付將延遲三個多月,并將于 2025 年第一季度交付給客戶。”


隨著科技行業(yè)努力應對這些發(fā)展,NVIDIA Blackwell AI 加速器設計缺陷的連鎖反應預計將重塑競爭格局,為三星和 AMD 等公司提供機會,同時挑戰(zhàn) NVIDIA 的市場主導地位。


來源:半導體行業(yè)觀察


*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: AI芯片

技術專區(qū)

關閉