新聞中心

EEPW首頁 > 智能計(jì)算 > 業(yè)界動態(tài) > Nvidia CEO Jensen Huang宣布新的AI芯片:“我們需要更大的GPU”

Nvidia CEO Jensen Huang宣布新的AI芯片:“我們需要更大的GPU”

作者:EEPW 時(shí)間:2024-03-21 來源:EEPW 收藏

Nvidia于周一宣布了一款新一代的人工智能芯片和軟件,用于運(yùn)行AI模型。這款新的AI圖形處理器被命名為Blackwell,預(yù)計(jì)將于今年晚些時(shí)候發(fā)貨。這一宣布發(fā)生在各家公司和軟件制造商仍在竭力獲取當(dāng)前一代H100和類似芯片的情況下。

本文引用地址:http://m.butianyuan.cn/article/202403/456625.htm

在加州圣何塞舉行的開發(fā)者大會上,該公司宣布了這一消息,旨在鞏固其作為AI公司首選供應(yīng)商的地位。

自從2022年底OpenAI的ChatGPT掀起了人工智能熱潮以來,的股價(jià)已上漲了五倍,總銷售額也增長了兩倍多。的高端服務(wù)器GPU對于訓(xùn)練和部署大型AI模型至關(guān)重要。微軟和Meta等公司已經(jīng)花費(fèi)數(shù)十億美元購買了這些芯片。

這一新一代的AI圖形處理器被命名為Blackwell。第一款Blackwell芯片被稱為GB200,預(yù)計(jì)將于今年晚些時(shí)候發(fā)貨。英偉達(dá)正在通過提供更強(qiáng)大的芯片來吸引客戶以刺激新訂單。例如,一些公司和軟件制造商仍在爭相獲取當(dāng)前一代“Hopper” H100和類似芯片。

“Hopper是非常出色的,但我們需要更大的GPU,”英偉達(dá)CEO Jensen Huang周一在加州的開發(fā)者大會上表示。

英偉達(dá)的股價(jià)在周一的盤后交易中下跌了超過1%。

該公司還推出了一款名為NIM的盈利軟件,這將使部署AI變得更加容易,這給了客戶另一個(gè)理由選擇英偉達(dá)芯片而不是日益增多的競爭對手。

英偉達(dá)的高管表示,該公司正在從一個(gè)傭兵式的芯片提供商轉(zhuǎn)變?yōu)橐粋€(gè)像微軟或蘋果一樣的平臺提供商,其他公司可以在其上構(gòu)建軟件。

“Blackwell不僅僅是一種芯片,它是一個(gè)平臺的名稱,”黃仁勛說道。

“可銷售的商業(yè)產(chǎn)品是GPU,軟件是為了幫助人們以不同方式使用GPU,”英偉達(dá)企業(yè)副總裁Manuvir Das在采訪中說道。“當(dāng)然,我們?nèi)匀辉谧鲞@件事。但真正改變的是,我們現(xiàn)在真正擁有了一個(gè)商業(yè)軟件業(yè)務(wù)?!?/p>

Das表示,英偉達(dá)的新軟件將使在任何英偉達(dá)的GPU上運(yùn)行程序變得更加容易,即使是那些可能更適合部署而不是構(gòu)建AI的舊版本。

“如果你是開發(fā)人員,你有一個(gè)你希望人們采納的有趣模型,如果你把它放在一個(gè)NIM中,我們將確保它可以在我們所有的GPU上運(yùn)行,這樣你就可以觸及到很多人,”Das說道。

見證Hopper的繼任者:Blackwell

每兩年,英偉達(dá)更新一次其GPU架構(gòu),從而實(shí)現(xiàn)性能的大幅提升。過去一年發(fā)布的許多AI模型都是在該公司的Hopper架構(gòu)上進(jìn)行訓(xùn)練的——比如H100——該架構(gòu)于2022年宣布。

英偉達(dá)表示,基于Blackwell的處理器,如GB200,為AI公司提供了巨大的性能升級,AI性能達(dá)到20 petaflops,而H100僅為4 petaflops。英偉達(dá)表示,額外的處理能力將使AI公司能夠訓(xùn)練更大更復(fù)雜的模型。

該芯片包括英偉達(dá)所稱的“專為運(yùn)行基于transformers的AI而構(gòu)建的變壓器引擎”,這是支撐ChatGPT的核心技術(shù)之一。

Blackwell GPU較大,將兩個(gè)分別制造的芯片合并成一個(gè)由TSMC制造的芯片。它還將作為一個(gè)完整的服務(wù)器產(chǎn)品推出,名為GB200 NVLink 2,將72個(gè)Blackwell GPU和其他旨在訓(xùn)練AI模型的英偉達(dá)零部件組合在一起。

亞馬遜、谷歌、微軟和甲骨文將通過云服務(wù)銷售對GB200的訪問。GB200配備了兩個(gè)B200 Blackwell GPU和一個(gè)基于Arm的Grace CPU。英偉達(dá)表示,亞馬遜網(wǎng)絡(luò)服務(wù)將建立一個(gè)擁有20000個(gè)GB200芯片的服務(wù)器集群。

英偉達(dá)表示,該系統(tǒng)可以部署一個(gè)27萬億參數(shù)模型。這比最大的模型如GPT-4的1.7萬億參數(shù)要大得多。許多人工智能研究人員認(rèn)為,具有更多參數(shù)和數(shù)據(jù)的更大模型可以解鎖新的能力。

英偉達(dá)沒有提供新GB200或其所用系統(tǒng)的成本。據(jù)分析師估計(jì),英偉達(dá)基于Hopper的H100的成本在每個(gè)芯片之間在25000到40000美元之間,整個(gè)系統(tǒng)的成本高達(dá)200000美元。

英偉達(dá)還將B200圖形處理器作為一個(gè)完整系統(tǒng)的一部分出售,該系統(tǒng)占據(jù)了整個(gè)服務(wù)器機(jī)架。

Nvidia推出了一款名為NIM的新產(chǎn)品,旨在為其Nvidia企業(yè)軟件訂閱服務(wù)增添功能。

NIM使得利用老款Nvidia GPU進(jìn)行推理任務(wù)變得更加容易,推理任務(wù)涉及運(yùn)行AI軟件。這使得公司可以繼續(xù)利用他們已經(jīng)擁有的數(shù)以億計(jì)的Nvidia GPU。與AI模型的初始訓(xùn)練相比,推理需要較少的計(jì)算資源。NIM使得公司可以運(yùn)行自己的AI模型,而不是購買像OpenAI這樣的公司提供的AI結(jié)果服務(wù)。

這一戰(zhàn)略的目標(biāo)是讓購買Nvidia服務(wù)器的客戶注冊Nvidia企業(yè)服務(wù),該服務(wù)每年以每GPU 4,500美元的價(jià)格出售。

Nvidia將與微軟、Hugging Face等AI公司合作,以確保他們的AI模型能夠在所有兼容的Nvidia芯片上運(yùn)行。然后,開發(fā)人員可以使用NIM,在自己的服務(wù)器或基于云的Nvidia服務(wù)器上高效地運(yùn)行模型,而無需經(jīng)歷復(fù)雜的配置過程。

Nvidia的企業(yè)副總裁Manuvir Das解釋說,將NIM集成到他們的代碼中非常簡單,只需將一行代碼指向Nvidia推理微服務(wù),而不是OpenAI的服務(wù)。

此外,Nvidia強(qiáng)調(diào)該軟件還將有助于在配備GPU的筆記本電腦上運(yùn)行AI,而不是僅在云服務(wù)器上運(yùn)行AI任務(wù)。



關(guān)鍵詞: 英偉達(dá)

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉