新聞中心

EEPW首頁 > 智能計(jì)算 > 新品快遞 > 英偉達(dá)發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨

英偉達(dá)發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨

作者: 時(shí)間:2024-03-19 來源:IT之家 收藏

IT之家 3 月 19 日閃訊速報(bào),發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨。

本文引用地址:http://m.butianyuan.cn/article/202403/456521.htm

在今天召開的 GTC 開發(fā)者大會(huì)上,正式發(fā)布了最強(qiáng) AI 加速卡 GB200,并計(jì)劃今年晚些時(shí)候發(fā)貨。

GB200 采用新一代 AI 圖形處理器架構(gòu) Blackwell,黃仁勛在 GTC 大會(huì)上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強(qiáng)大的 GPU”。

目前按照每隔 2 年的更新頻率,升級(jí)一次 GPU 架構(gòu),從而大幅提升性能。英偉達(dá)于 2022 年發(fā)布了基于 Hopper 架構(gòu)的 H100 加速卡,而現(xiàn)在推出基于 Blackwell 的加速卡更加強(qiáng)大,更擅長(zhǎng)處理 AI 相關(guān)的任務(wù)。

Blackwell GPU

黃仁勛表示,Blackwell 的 AI 性能可達(dá) 20 petaflops,而 H100 僅為 4 petaflops。Nvidia 表示,額外的處理能力將使人工智能公司能夠訓(xùn)練更大、更復(fù)雜的模型。

Blackwell GPU 體積龐大,采用臺(tái)積電的 4 納米(4NP)工藝蝕刻而成,整合兩個(gè)獨(dú)立制造的裸晶(Die),共有 2080 億個(gè)晶體管,然后通過 NVLink 5.0 像拉鏈一樣捆綁芯片。

英偉達(dá)表示每個(gè) Blackwell Die 的浮點(diǎn)運(yùn)算能力要比 Hopper Die 高出 25%,而且每個(gè)封裝中有兩個(gè) Blackwell 芯片,總性能提高了 2.5 倍。如果處理 FP4 八精度浮點(diǎn)運(yùn)算,性能還能提高到 5 倍。取決于各種 Blackwell 設(shè)備的內(nèi)存容量和帶寬配置,工作負(fù)載的實(shí)際性能可能會(huì)更高。

英偉達(dá)使用 10 TB / sec NVLink 5.0 連接每塊 Die,官方稱該鏈路為 NV-HBI。Blackwell complex 的 NVLink 5.0 端口可提供 1.8 TB / 秒的帶寬,是 Hopper GPU 上 NVLink 4.0 端口速度的兩倍。

GB200

英偉達(dá)表示 GB200 包含了兩個(gè) B200 Blackwell GPU 和一個(gè)基于 Arm 的 Grace CPU 組成,推理大語言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。

NVIDIA Grace Blackwell 生產(chǎn)板

NVIDIA Grace Blackwell 開發(fā)板

IT之家援引英偉達(dá)官方報(bào)告,訓(xùn)練一個(gè) 1.8 萬億個(gè)參數(shù)的模型以前需要 8000 個(gè) Hopper GPU 和 15 兆瓦的電力。如今,Nvidia 首席執(zhí)行官表示,2000 個(gè) Blackwell GPU 就能完成這項(xiàng)工作,耗電量?jī)H為 4 兆瓦。

在參數(shù)為 1,750 億的 GPT-3 LLM 基準(zhǔn)測(cè)試中,Nvidia 稱 GB200 的性能是 H100 的 7 倍,而訓(xùn)練速度是 H100 的 4 倍。

英偉達(dá)還面向有大型需求的企業(yè)提供成品服務(wù),提供完整的服務(wù)器出貨,例如 GB200 NVL72 服務(wù)器,提供了 36 個(gè) CPU 和 72 個(gè) Blackwell GPU,并完善提供一體水冷散熱方案,可實(shí)現(xiàn)總計(jì) 720 petaflops 的 AI 訓(xùn)練性能或 1,440 petaflops(又稱 1.4 exaflops)的推理性能。它內(nèi)部使用電纜長(zhǎng)度累計(jì)接近 2 英里,共有 5000 條獨(dú)立電纜。

機(jī)架上的每個(gè)托盤包含兩個(gè) GB200 芯片或兩個(gè) NVLink 交換機(jī),每個(gè)機(jī)架有 18 個(gè) GB200 芯片和 9 個(gè) NVLink 交換機(jī),英偉達(dá)稱,一個(gè)機(jī)架總共可支持 27 萬億個(gè)參數(shù)模型。而作為對(duì)比,GPT-4 的參數(shù)模型約為 1.7 萬億。

該公司表示,亞馬遜、谷歌、微軟和甲骨文都已計(jì)劃在其云服務(wù)產(chǎn)品中提供 NVL72 機(jī)架,但不清楚它們將購(gòu)買多少。

英偉達(dá)表示亞馬遜 AWS 已計(jì)劃采購(gòu)由 2 萬片 GB200 芯片組建的服務(wù)器集群,可以部署 27 萬億個(gè)參數(shù)的模型。

Nvidia 也樂于為公司提供其他解決方案。下面是用于 DGX GB200 的 DGX Superpod,它將八個(gè)系統(tǒng)合而為一,總共擁有 288 個(gè) CPU、576 個(gè) GPU、240TB 內(nèi)存和 11.5 exaflops 的 FP4 計(jì)算能力。

英偉達(dá)稱,其系統(tǒng)可擴(kuò)展至數(shù)萬 GB200 超級(jí)芯片,并通過其新型 Quantum-X800 InfiniBand(最多 144 個(gè)連接)或 Spectrum-X800 以太網(wǎng)(最多 64 個(gè)連接)與 800Gbps 網(wǎng)絡(luò)連接在一起。

英偉達(dá)目前并未公布 GB200 以及整套方案的售價(jià)信息。




評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉