Nvidia CEO Jensen Huang宣布新的AI芯片:“我們需要更大的GPU”
Nvidia于周一宣布了一款新一代的人工智能芯片和軟件,用于運(yùn)行AI模型。這款新的AI圖形處理器被命名為Blackwell,預(yù)計(jì)將于今年晚些時(shí)候發(fā)貨。這一宣布發(fā)生在各家公司和軟件制造商仍在竭力獲取當(dāng)前一代H100和類似芯片的情況下。
在加州圣何塞舉行的英偉達(dá)開發(fā)者大會上,該公司宣布了這一消息,旨在鞏固其作為AI公司首選供應(yīng)商的地位。
自從2022年底OpenAI的ChatGPT掀起了人工智能熱潮以來,英偉達(dá)的股價(jià)已上漲了五倍,總銷售額也增長了兩倍多。英偉達(dá)的高端服務(wù)器GPU對于訓(xùn)練和部署大型AI模型至關(guān)重要。微軟和Meta等公司已經(jīng)花費(fèi)數(shù)十億美元購買了這些芯片。
這一新一代的AI圖形處理器被命名為Blackwell。第一款Blackwell芯片被稱為GB200,預(yù)計(jì)將于今年晚些時(shí)候發(fā)貨。英偉達(dá)正在通過提供更強(qiáng)大的芯片來吸引客戶以刺激新訂單。例如,一些公司和軟件制造商仍在爭相獲取當(dāng)前一代“Hopper” H100和類似芯片。
“Hopper是非常出色的,但我們需要更大的GPU,”英偉達(dá)CEO Jensen Huang周一在加州的開發(fā)者大會上表示。
英偉達(dá)的股價(jià)在周一的盤后交易中下跌了超過1%。
該公司還推出了一款名為NIM的盈利軟件,這將使部署AI變得更加容易,這給了客戶另一個(gè)理由選擇英偉達(dá)芯片而不是日益增多的競爭對手。
英偉達(dá)的高管表示,該公司正在從一個(gè)傭兵式的芯片提供商轉(zhuǎn)變?yōu)橐粋€(gè)像微軟或蘋果一樣的平臺提供商,其他公司可以在其上構(gòu)建軟件。
“Blackwell不僅僅是一種芯片,它是一個(gè)平臺的名稱,”黃仁勛說道。
“可銷售的商業(yè)產(chǎn)品是GPU,軟件是為了幫助人們以不同方式使用GPU,”英偉達(dá)企業(yè)副總裁Manuvir Das在采訪中說道。“當(dāng)然,我們?nèi)匀辉谧鲞@件事。但真正改變的是,我們現(xiàn)在真正擁有了一個(gè)商業(yè)軟件業(yè)務(wù)?!?/p>
Das表示,英偉達(dá)的新軟件將使在任何英偉達(dá)的GPU上運(yùn)行程序變得更加容易,即使是那些可能更適合部署而不是構(gòu)建AI的舊版本。
“如果你是開發(fā)人員,你有一個(gè)你希望人們采納的有趣模型,如果你把它放在一個(gè)NIM中,我們將確保它可以在我們所有的GPU上運(yùn)行,這樣你就可以觸及到很多人,”Das說道。
見證Hopper的繼任者:Blackwell
每兩年,英偉達(dá)更新一次其GPU架構(gòu),從而實(shí)現(xiàn)性能的大幅提升。過去一年發(fā)布的許多AI模型都是在該公司的Hopper架構(gòu)上進(jìn)行訓(xùn)練的——比如H100——該架構(gòu)于2022年宣布。
英偉達(dá)表示,基于Blackwell的處理器,如GB200,為AI公司提供了巨大的性能升級,AI性能達(dá)到20 petaflops,而H100僅為4 petaflops。英偉達(dá)表示,額外的處理能力將使AI公司能夠訓(xùn)練更大更復(fù)雜的模型。
該芯片包括英偉達(dá)所稱的“專為運(yùn)行基于transformers的AI而構(gòu)建的變壓器引擎”,這是支撐ChatGPT的核心技術(shù)之一。
Blackwell GPU較大,將兩個(gè)分別制造的芯片合并成一個(gè)由TSMC制造的芯片。它還將作為一個(gè)完整的服務(wù)器產(chǎn)品推出,名為GB200 NVLink 2,將72個(gè)Blackwell GPU和其他旨在訓(xùn)練AI模型的英偉達(dá)零部件組合在一起。
亞馬遜、谷歌、微軟和甲骨文將通過云服務(wù)銷售對GB200的訪問。GB200配備了兩個(gè)B200 Blackwell GPU和一個(gè)基于Arm的Grace CPU。英偉達(dá)表示,亞馬遜網(wǎng)絡(luò)服務(wù)將建立一個(gè)擁有20000個(gè)GB200芯片的服務(wù)器集群。
英偉達(dá)表示,該系統(tǒng)可以部署一個(gè)27萬億參數(shù)模型。這比最大的模型如GPT-4的1.7萬億參數(shù)要大得多。許多人工智能研究人員認(rèn)為,具有更多參數(shù)和數(shù)據(jù)的更大模型可以解鎖新的能力。
英偉達(dá)沒有提供新GB200或其所用系統(tǒng)的成本。據(jù)分析師估計(jì),英偉達(dá)基于Hopper的H100的成本在每個(gè)芯片之間在25000到40000美元之間,整個(gè)系統(tǒng)的成本高達(dá)200000美元。
英偉達(dá)還將B200圖形處理器作為一個(gè)完整系統(tǒng)的一部分出售,該系統(tǒng)占據(jù)了整個(gè)服務(wù)器機(jī)架。
Nvidia推出了一款名為NIM的新產(chǎn)品,旨在為其Nvidia企業(yè)軟件訂閱服務(wù)增添功能。
NIM使得利用老款Nvidia GPU進(jìn)行推理任務(wù)變得更加容易,推理任務(wù)涉及運(yùn)行AI軟件。這使得公司可以繼續(xù)利用他們已經(jīng)擁有的數(shù)以億計(jì)的Nvidia GPU。與AI模型的初始訓(xùn)練相比,推理需要較少的計(jì)算資源。NIM使得公司可以運(yùn)行自己的AI模型,而不是購買像OpenAI這樣的公司提供的AI結(jié)果服務(wù)。
這一戰(zhàn)略的目標(biāo)是讓購買Nvidia服務(wù)器的客戶注冊Nvidia企業(yè)服務(wù),該服務(wù)每年以每GPU 4,500美元的價(jià)格出售。
Nvidia將與微軟、Hugging Face等AI公司合作,以確保他們的AI模型能夠在所有兼容的Nvidia芯片上運(yùn)行。然后,開發(fā)人員可以使用NIM,在自己的服務(wù)器或基于云的Nvidia服務(wù)器上高效地運(yùn)行模型,而無需經(jīng)歷復(fù)雜的配置過程。
Nvidia的企業(yè)副總裁Manuvir Das解釋說,將NIM集成到他們的代碼中非常簡單,只需將一行代碼指向Nvidia推理微服務(wù),而不是OpenAI的服務(wù)。
此外,Nvidia強(qiáng)調(diào)該軟件還將有助于在配備GPU的筆記本電腦上運(yùn)行AI,而不是僅在云服務(wù)器上運(yùn)行AI任務(wù)。
評論