新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 2080億晶體管,英偉達(dá)推出最強(qiáng)AI芯片GB200

2080億晶體管,英偉達(dá)推出最強(qiáng)AI芯片GB200

作者: 時間:2024-03-20 來源:半導(dǎo)體產(chǎn)業(yè)縱橫 收藏

目前,位居人工智能世界之巔,擁有人人都想要的數(shù)據(jù)中心 GPU。其 Hopper H100 和 GH200 Grace Hopper 超級芯片需求量很大,為世界上許多最強(qiáng)大的超級計算機(jī)提供動力。

本文引用地址:http://m.butianyuan.cn/article/202403/456553.htm

今天,首席執(zhí)行官黃仁勛投下了 Blackwell B200 炸彈,這是下一代數(shù)據(jù)中心和 AI GPU,將提供計算能力的巨大代際飛躍。

Blackwell 架構(gòu)和 B200 GPU 取代了 H100/H200。Blackwell 包含三個部分:B100、B200 和 Grace-Blackwell Superchip (GB200)。

新一代人工智能芯片 BLACKWELL GPU

新的 B200 GPU 擁有 2080 億個晶體管,可提供高達(dá) 20petaflops 的 FP4 算力,而 GB200 將兩個 GPU 和一個 Grace CPU 結(jié)合在一起,可為 LLM 推理工作負(fù)載提供 30 倍的性能,同時還可能大大提高效率。表示,與 H100 相比,它的成本和能耗"最多可降低 25 倍"。

聲稱,訓(xùn)練一個 1.8 萬億個參數(shù)的模型以前需要 8000 個 Hopper GPU 和 15 兆瓦的電力。如今,2000 個 Blackwell GPU 就能完成這項工作,耗電量僅為 4 兆瓦。

在具有 1750 億個參數(shù)的 GPT-3 LLM 基準(zhǔn)測試中,GB200 的性能是 H100 的 7 倍,而英偉達(dá)稱其訓(xùn)練速度是 H100 的 4 倍。

Blackwell B200 并不是傳統(tǒng)意義上的單一 GPU。相反,它由兩個緊密耦合的芯片組成,盡管根據(jù)英偉達(dá)的說法,它們確實充當(dāng)一個統(tǒng)一的 CUDA GPU。這兩個芯片通過 10 TB/s NV-HBI(英偉達(dá)高帶寬接口)連接進(jìn)行連接,以確保它們能夠作為單個完全一致的芯片正常運(yùn)行。

這種雙芯片配置的原因很簡單:Blackwell B200 將使用臺積電的 4NP 工藝節(jié)點,這是現(xiàn)有 Hopper H100 和 Ada Lovelace 架構(gòu) GPU 使用的 4N 工藝的改進(jìn)版本。

B200 將使用兩個全標(biāo)線尺寸的芯片,每個芯片都有四個 HMB3e 堆棧,每個堆棧容量為 24GB,每個堆棧在 1024 位接口上具有 1 TB/s 的帶寬。

英偉達(dá) NVLINK 7.2T

AI 和 HPC 工作負(fù)載的一大限制因素是不同節(jié)點之間通信的多節(jié)點互連帶寬。隨著 GPU 數(shù)量的增加,通信成為嚴(yán)重的瓶頸,占用的資源和時間高達(dá) 60%。通過 B200,英偉達(dá)推出了第五代 NVLink 和 NVLink Switch 7.2T。

新的 NVLink 芯片具有 1.8 TB/s 的全對全雙向帶寬,支持 576 個 GPU NVLink 域。它是在同一臺積電 4NP 節(jié)點上制造的 500 億個晶體管芯片。該芯片還支持 3.6 teraflops 的 Sharp v4 片上網(wǎng)絡(luò)計算,這有助于高效處理更大的模型。

上一代支持高達(dá) 100 GB/s 的 HDR InfiniBand 帶寬,因此這是帶寬的巨大飛躍。與 H100 多節(jié)點互連相比,新的 NVSwitch 速度提高了 18 倍。這應(yīng)該能夠顯著改善更大的萬億參數(shù)模型人工智能網(wǎng)絡(luò)的擴(kuò)展性。

與此相關(guān)的是,每個 Blackwell GPU 都配備了 18 個第五代 NVLink 連接。這是 H100 鏈接數(shù)量的十八倍。每個鏈路提供 50 GB/s 的雙向帶寬,或每個鏈路 100 GB/s

英偉達(dá) B200 NVL72

將以上內(nèi)容組合在一起,您就得到了英偉達(dá)的新 GB200 NVL72 系統(tǒng)。

這些基本上是一個全機(jī)架解決方案,具有 18 臺 1U 服務(wù)器,每臺服務(wù)器都有兩個 GB200 超級芯片。然而,在 GB200 超級芯片的構(gòu)成方面,與上一代相比存在一些差異。圖像和規(guī)格表明,兩個 B200 GPU 與單個 Grace CPU 相匹配,而 GH100 使用較小的解決方案,將單個 Grace CPU 與單個 H100 GPU 放在一起。

最終結(jié)果是 GB200 超級芯片計算托盤將配備兩個 Grace CPU 和四個 B200 GPU,具有 80 petaflops 的 FP4 AI 推理性能和 40 petaflops 的 FP8 AI 訓(xùn)練性能。這些是液冷 1U 服務(wù)器,它們占據(jù)了機(jī)架中提供的典型 42 個單位空間的很大一部分。

除了 GB200 超級芯片計算托盤外,GB200 NVL72 還將配備 NVLink 交換機(jī)托盤。這些也是 1U 液冷托盤,每個托盤有兩個 NVLink 交換機(jī),每個機(jī)架有 9 個這樣的托盤。每個托盤提供 14.4 TB/s 的總帶寬,加上前面提到的 Sharp v4 計算。

總的來說,GB200 NVL72 擁有 36 個 Grace CPU 和 72 個 Blackwell GPU,具有 720 petaflops 的 FP8 和 1,440 petaflops 的 FP4 計算能力。多節(jié)點帶寬為 130 TB/s,英偉達(dá)表示 NVL72 可以為 AI LLM 處理多達(dá) 27 萬億個參數(shù)模型。

英偉達(dá)表示,亞馬遜、Google、微軟和甲骨文都已計劃在其云服務(wù)產(chǎn)品中提供 NVL72 機(jī)架。

Blackwell 平臺表現(xiàn)如何?

雖然英偉達(dá)在人工智能基礎(chǔ)設(shè)施市場占據(jù)主導(dǎo)地位,但它并不是唯一一家在行動的公司,英特爾和 AMD 推出新的 Gaudi 和 Instinct 加速器、云提供商推動定制芯片,以及像 Cerebras 和 Samba Nova 這樣的人工智能初創(chuàng)公司都在爭奪 AI 市場的一杯羹。

預(yù)計到 2024 年,人工智能加速器的需求將遠(yuǎn)遠(yuǎn)超過供應(yīng),贏得份額并不總是意味著擁有更快的芯片,而僅僅意味著擁有可交付的芯片。

雖然我們對英特爾即將推出的 Guadi 3 芯片還知之甚少,但我們可以將其與 AMD 去年 12 月推出的 MI300X GPU 進(jìn)行一些比較。

MI300X 使用先進(jìn)的封裝將八個 CDNA 3 計算單元垂直堆疊到四個 I/O 芯片上,從而在 GPU 和 192GB HBM3 內(nèi)存之間提供高速通信。

在性能方面,與英偉達(dá)的 H100 相比,MI300X 在 FP8 浮點計算方面具有 30% 的性能優(yōu)勢,在以 HPC 為中心的雙精度工作負(fù)載方面具有近 2.5 倍的領(lǐng)先優(yōu)勢。

將 750W MI300X 與 700W B100 進(jìn)行比較,英偉達(dá)芯片的稀疏性能快了 2.67 倍。雖然這兩款芯片現(xiàn)在都配備了 192 GB 高帶寬內(nèi)存,但 Blackwell 部分的內(nèi)存速度快了 2.8 TB/s。

內(nèi)存帶寬已被證明是人工智能性能的主要指標(biāo),特別是在推理方面。英偉達(dá)的 H200 本質(zhì)上是帶寬增強(qiáng)的 H100。然而,盡管與 H100 的 FLOPS 相同,英偉達(dá)聲稱在 Meta 的 Llama 2 70B 等模型中速度是 H100 的兩倍。

雖然英偉達(dá)在較低精度方面擁有明顯領(lǐng)先優(yōu)勢,但這可能是以犧牲雙精度性能為代價的,而雙精度性能是 AMD 近年來表現(xiàn)出色的領(lǐng)域,贏得了多個備受矚目的超級計算機(jī)獎項。

據(jù)英偉達(dá)稱,Blackwell GPU 能夠提供 45 teraFLOPS 的 FP64 張量核心性能。這與 H100 提供的 67 teraFLOPS FP64 矩陣性能相比略有下降,并且與 AMD 的 MI300X(81.7 teraFLOPS FP64 矢量和 163 teraFLOPS FP64 矩陣)相比處于劣勢。

還有 Cerebras,它最近展示了其第三代 Waferscale AI 加速器。怪物 90 萬核心處理器只有餐盤大小,專為 AI 訓(xùn)練而設(shè)計。

Cerebras 聲稱這些芯片中的每一個都可以在 23kW 的功率下實現(xiàn) 125 petaFLOPS 的高度稀疏 FP16 性能。Cerebras 表示,與 H100 相比,該芯片在半精度下速度快了約 62 倍。

然而,將 WSE-3 與英偉達(dá)的旗艦 Blackwell 部件進(jìn)行比較,領(lǐng)先優(yōu)勢大幅縮小。據(jù)我們了解,英偉達(dá)的頂級規(guī)格芯片應(yīng)能提供約 5 petaFLOPS 的稀疏 FP16 性能。這將 Cerebra 的領(lǐng)先優(yōu)勢縮小至 25 倍。但正如我們當(dāng)時指出的那樣,所有這一切都取決于您的模型能否利用稀疏性。

臺積電和 Synopsys 正推進(jìn)部署使用英偉達(dá)的計算光刻平臺

英偉達(dá)今天宣布,臺積電和 Synopsys 將使用英偉達(dá)的計算光刻平臺投入生產(chǎn),以加速制造并突破下一代先進(jìn)半導(dǎo)體芯片的物理極限。

全球領(lǐng)先的代工廠臺積電 (TSMC) 和芯片到系統(tǒng)設(shè)計解決方案的領(lǐng)導(dǎo)者新思科技 ( Synopsys) 已將英偉達(dá) cuLitho 與其軟件、制造工藝和系統(tǒng)集成,以加快芯片制造速度,并在未來支持最新一代 英偉達(dá) Blackwell 架構(gòu) GPU。

英偉達(dá)創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:「計算光刻是芯片制造的基石?!埂肝覀兣c臺積電和新思科技合作,在 cuLitho 上開展工作,應(yīng)用加速計算和生成式 AI 來開辟半導(dǎo)體縮放的新領(lǐng)域?!?/span>

英偉達(dá)還推出了新的生成式 AI 算法,增強(qiáng)了 cuLitho(GPU 加速計算光刻庫),與當(dāng)前基于 CPU 的方法相比,顯著改進(jìn)了半導(dǎo)體制造工藝。

計算光刻是半導(dǎo)體制造過程中計算最密集的工作負(fù)載,每年在 CPU 上消耗數(shù)百億小時。芯片的典型掩模組(其生產(chǎn)的關(guān)鍵步驟)可能需要 3000 萬小時或更多小時的 CPU 計算時間,因此需要在半導(dǎo)體代工廠內(nèi)建立大型數(shù)據(jù)中心。通過加速計算,350 個 英偉達(dá) H100 系統(tǒng)現(xiàn)在可以取代 40,000 個 CPU 系統(tǒng),加快生產(chǎn)時間,同時降低成本、空間和功耗。

臺積電首席執(zhí)行官 CC Wei 博士表示:「我們與英偉達(dá)合作,將 GPU 加速計算集成到臺積電工作流程中,從而實現(xiàn)了性能的巨大飛躍、吞吐量的顯著提高、周期時間的縮短以及功耗要求的降低?!埂肝覀冋趯?英偉達(dá) cuLitho 轉(zhuǎn)移到臺積電生產(chǎn),利用這種計算光刻技術(shù)來驅(qū)動半導(dǎo)體微縮的關(guān)鍵組件。」

自去年推出以來,cuLitho 使臺積電為創(chuàng)新圖案技術(shù)開辟了新的機(jī)遇。在共享工作流程上測試 cuLitho 時,兩家公司共同實現(xiàn)了曲線流程的 45 倍加速以及傳統(tǒng)曼哈頓式流程近 60 倍的改進(jìn)。這兩種類型的流不同,對于曲線,掩模形狀由曲線表示,而曼哈頓掩模形狀被限制為水平或垂直。

Synopsys 總裁兼首席執(zhí)行官 Sassine Ghazi 表示:「二十多年來,Synopsys Proteus 掩模合成軟件產(chǎn)品一直是加速計算光刻(半導(dǎo)體制造中要求最高的工作負(fù)載)的經(jīng)過生產(chǎn)驗證的選擇?!埂鸽S著向先進(jìn)節(jié)點的轉(zhuǎn)變,計算光刻的復(fù)雜性和計算成本急劇增加。我們與臺積電和 英偉達(dá)的合作對于實現(xiàn)埃級擴(kuò)展至關(guān)重要,因為我們開創(chuàng)了先進(jìn)技術(shù),通過加速計算的力量將周轉(zhuǎn)時間縮短了幾個數(shù)量級。」



關(guān)鍵詞: 英偉達(dá) AI芯片

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉