NVIDIA Blackwell平臺(tái)發(fā)布,賦能計(jì)算新時(shí)代
● 全新Blackwell GPU、NVLink和可靠性技術(shù)賦能萬億參數(shù)規(guī)模的AI模型
● 全新Tensor Core與TensorRT-LLM編譯器將LLM推理運(yùn)行成本和能耗降低多達(dá)25倍
● 全新加速器助推數(shù)據(jù)處理、工程模擬、電子設(shè)計(jì)自動(dòng)化、計(jì)算機(jī)輔助藥物設(shè)計(jì)和量子計(jì)算領(lǐng)域?qū)崿F(xiàn)突破
● 各大云提供商、服務(wù)器制造商和頭部AI企業(yè)紛紛采用
NVIDIA于近日宣布推出NVIDIA Blackwell平臺(tái)以賦能計(jì)算新時(shí)代。該平臺(tái)可使世界各地的機(jī)構(gòu)都能夠在萬億參數(shù)的大語言模型(LLM)上構(gòu)建和運(yùn)行實(shí)時(shí)生成式AI,其成本和能耗較上一代產(chǎn)品降低多達(dá)25倍。
Blackwell GPU架構(gòu)搭載六項(xiàng)變革性的加速計(jì)算技術(shù),這些技術(shù)將助推數(shù)據(jù)處理、工程模擬、電子設(shè)計(jì)自動(dòng)化、計(jì)算機(jī)輔助藥物設(shè)計(jì)、量子計(jì)算和生成式 AI 等領(lǐng)域?qū)崿F(xiàn)突破,這些都是NVIDIA眼中的新興行業(yè)機(jī)遇。
NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示: “三十年來,我們一直深耕加速計(jì)算領(lǐng)域,力求實(shí)現(xiàn)像深度學(xué)習(xí)和 AI 這樣的變革性突破。生成式 AI 是我們這個(gè)時(shí)代的決定性技術(shù),Blackwell GPU 是推動(dòng)新一輪工業(yè)革命的引擎。通過與全球最具活力的企業(yè)合作,我們將實(shí)現(xiàn) AI 賦能各行各業(yè)的承諾?!?/p>
許多企業(yè)都在計(jì)劃采用 Blackwell,其中包括亞馬遜云科技、戴爾科技、谷歌、Meta、微軟、OpenAI、Oracle、特斯拉和 xAI。
Alphabet和谷歌首席執(zhí)行官Sundar Pichai表示: “通過擴(kuò)展谷歌搜索和Gmail等服務(wù)以服務(wù)于數(shù)十億用戶,我們對(duì)于如何管理計(jì)算基礎(chǔ)設(shè)施有了更加深入的了解。隨著公司業(yè)務(wù)進(jìn)入AI平臺(tái)轉(zhuǎn)型期,我們將繼續(xù)為自身產(chǎn)品和服務(wù)以及云客戶擴(kuò)大基礎(chǔ)設(shè)施投資。我們有幸與NVIDIA建立了長期合作伙伴關(guān)系,并期待著將Blackwell GPU的突破性功能帶給我們的云客戶以及包括Google DeepMind在內(nèi)的谷歌團(tuán)隊(duì),以加速未來的探索進(jìn)程?!?/p>
亞馬遜總裁兼首席執(zhí)行官Andy Jassy表示: “我們與 NVIDIA 的深度合作可以追溯到 13 年前,當(dāng)時(shí)我們?cè)?nbsp;AWS 上推出了全球首個(gè) GPU 云實(shí)例。如今,我們?cè)谠贫颂峁┝俗顬閺V泛的 GPU 解決方案,以支持全球那些技術(shù)上最先進(jìn)的加速工作負(fù)載。正因如此,NVIDIA Blackwell GPU能夠在AWS上運(yùn)行得如此出色,NVIDIA也選擇與AWS共同開發(fā)Project Ceiba,將NVIDIA新一代Grace Blackwell超級(jí)芯片與AWS Nitro System的高級(jí)虛擬化和超快速的Elastic Fabric Adapter 網(wǎng)絡(luò)結(jié)合,以用于NVIDIA自身的AI研發(fā)。通過AWS與NVIDIA工程師的共同努力,我們將持續(xù)創(chuàng)新,使AWS成為每一個(gè)想要在云端運(yùn)行NVIDIA GPU的用戶的最佳選擇?!?/p>
戴爾科技董事會(huì)主席兼首席執(zhí)行官M(fèi)ichael Dell表示: “生成式AI對(duì)于創(chuàng)建更智能、更可靠和更高效的系統(tǒng)至關(guān)重要。戴爾科技與NVIDIA將攜手塑造未來科技。隨著Blackwell的發(fā)布, 我們將繼續(xù)為用戶提供新一代加速產(chǎn)品和服務(wù),以提供推動(dòng)跨行業(yè)創(chuàng)新所需的工具?!?/p>
谷歌DeepMind聯(lián)合創(chuàng)始人兼首席執(zhí)行官Demis Hassabis表示:“AI 的變革潛力令人難以置信,它將幫助我們解決世界上那些最重要的科學(xué)問題。Blackwell突破性的技術(shù)性能將提供所需的關(guān)鍵算力,從而幫助那些世界上最聰明的大腦繪制新的科學(xué)藍(lán)圖?!?/p>
Meta公司創(chuàng)始人兼首席執(zhí)行官M(fèi)ark Zuckerberg表示: “從我們的大語言模型到內(nèi)容推薦、廣告和安全系統(tǒng),AI 已經(jīng)在賦能一切,而且AI在未來將會(huì)日益重要。我們期待通過NVIDIA Blackwell幫助訓(xùn)練我們的開源Llama模型,打造下一代Meta AI和消費(fèi)產(chǎn)品?!?/p>
微軟執(zhí)行董事長兼首席執(zhí)行官Satya Nadella表示: “我們致力于為客戶提供最先進(jìn)的基礎(chǔ)設(shè)施,以賦能其 AI 工作負(fù)載。一直以來,我們致力于為云端優(yōu)化NVIDIA GPU,通過在我們的全球數(shù)據(jù)中心采用 GB200 Grace Blackwell 處理器,我們得以在這一進(jìn)程中再進(jìn)一步,助力世界各地的組織實(shí)現(xiàn)AI落地。”
OpenAI首席執(zhí)行官Sam Altman表示: “Blackwell 實(shí)現(xiàn)了巨大的性能飛躍,并將加速我們提供尖端模型的能力。我們很高興能繼續(xù)與NVIDIA合作,共同提升AI計(jì)算?!?/p>
Oracle董事長兼首席技術(shù)官Larry Ellison表示: “Oracle與NVIDIA的緊密合作將推動(dòng)AI、機(jī)器學(xué)習(xí)和數(shù)據(jù)分析領(lǐng)域?qū)崿F(xiàn)質(zhì)和量的突破。為了讓用戶能夠獲取更多具有可操作性的洞察,正需要像Blackwell這樣專為加速計(jì)算和生成式AI而打造的、更強(qiáng)大的引擎。”
特斯拉及xAI首席執(zhí)行官Elon Musk表示:“當(dāng)下的AI領(lǐng)域,NVIDIA硬件無可比擬?!?/p>
新架構(gòu)以紀(jì)念David Harold Blackwell命名,他不僅是一位專門研究博弈論和統(tǒng)計(jì)學(xué)的數(shù)學(xué)家,也是第一位入選美國國家科學(xué)院的黑人學(xué)者。這一新架構(gòu)是繼兩年前推出的NVIDIA Hopper?架構(gòu)以來的全新架構(gòu)。
Blackwell的多項(xiàng)創(chuàng)新技術(shù)為加速計(jì)算和生成式AI提供助力
憑借六項(xiàng)變革性的技術(shù),Blackwell能夠在擁有高達(dá)10萬億參數(shù)的模型上實(shí)現(xiàn)AI訓(xùn)練和實(shí)時(shí)LLM推理,這些技術(shù)包括:
● 全球最強(qiáng)大的芯片:Blackwell架構(gòu)GPU具有2080億個(gè)晶體管,采用專門定制的雙倍光刻極限尺寸4NP TSMC工藝制造,通過10 TB/s的片間互聯(lián),將GPU裸片連接成一塊統(tǒng)一的GPU。
● 第二代Transformer引擎:得益于全新微張量縮放支持,以及集成于NVIDIA TensorRT?-LLM 和 NeMo Megatron框架中的NVIDIA先進(jìn)動(dòng)態(tài)范圍管理算法,Blackwell將在新型4位浮點(diǎn)AI推理能力下實(shí)現(xiàn)算力和模型大小翻倍。
● 第五代NVLink:為了提升萬億級(jí)參數(shù)模型和混合專家AI模型的性能,最新一代NVIDIA NVLink?為每塊GPU提供突破性的1.8TB/s雙向吞吐量,確保多達(dá)576塊GPU之間的無縫高速通信,滿足了當(dāng)今最復(fù)雜LLM的需求。
● RAS引擎:采用Blackwell架構(gòu)的GPU包含一個(gè)用于保障可靠性、可用性和可維護(hù)性的專用引擎。此外,Blackwell架構(gòu)還增加了多項(xiàng)芯片級(jí)功能,能夠利用AI預(yù)防性維護(hù)來運(yùn)行診斷并預(yù)測(cè)可靠性相關(guān)的問題。這將最大程度地延長系統(tǒng)正常運(yùn)行時(shí)間,提高大規(guī)模AI部署的彈性,使其能夠連續(xù)不間斷運(yùn)行數(shù)周乃至數(shù)月,同時(shí)降低運(yùn)營成本。
● 安全AI:先進(jìn)的機(jī)密計(jì)算功能可以在不影響性能的情況下保護(hù)AI模型和客戶數(shù)據(jù),并且支持全新本地接口加密協(xié)議,這對(duì)于醫(yī)療、金融服務(wù)等高度重視隱私問題的行業(yè)至關(guān)重要。
● 解壓縮引擎:專用的解壓縮引擎支持最新格式,通過加速數(shù)據(jù)庫查詢提供極其強(qiáng)大的數(shù)據(jù)分析和數(shù)據(jù)科學(xué)性能。未來幾年,每年需要企業(yè)花費(fèi)數(shù)百億美元的數(shù)據(jù)處理將越來越多地由GPU加速。
一個(gè)超大規(guī)模的超級(jí)芯片
NVIDIA GB200 Grace Blackwell超級(jí)芯片通過900GB/s超低功耗的片間互聯(lián),將兩個(gè)NVIDIA B200 Tensor Core GPU與NVIDIA Grace CPU相連。
為了實(shí)現(xiàn)超高的AI性能,搭載GB200的系統(tǒng)可與同在今天發(fā)布的NVIDIA Quantum-X800 InfiniBand和Spectrum?-X800以太網(wǎng)平臺(tái)連接。這兩個(gè)平臺(tái)均可提供速度高達(dá)800Gb/s的高性能網(wǎng)絡(luò)。
GB200是NVIDIA GB200 NVL72的關(guān)鍵組件。NVIDIA GB200 NVL72是一套多節(jié)點(diǎn)液冷機(jī)架級(jí)擴(kuò)展系統(tǒng),適用于高度計(jì)算密集型的工作負(fù)載。它將36個(gè)Grace Blackwell超級(jí)芯片組合在一起,其中包含通過第五代 NVLink 相互連接的72個(gè)Blackwell GPU和36個(gè)Grace CPU。此外,GB200 NVL72還內(nèi)置NVIDIA BlueField?-3數(shù)據(jù)處理器,可在超大規(guī)模AI云中實(shí)現(xiàn)云網(wǎng)絡(luò)加速、組合式存儲(chǔ)、零信任安全和 GPU 計(jì)算彈性。對(duì)于LLM 推理工作負(fù)載,相較于同樣數(shù)量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72最高可提供30倍的性能提升以及多達(dá)25倍的成本和能耗降低。
該平臺(tái)可作為一個(gè)單GPU,具有1.4 exaflops的AI性能和30TB的快速內(nèi)存,是組成最新一代DGX SuperPOD的基礎(chǔ)模塊。
NVIDIA提供的HGX B200是一個(gè)通過NVLink連接8塊B200 GPU的服務(wù)器主板,支持基于x86的生成式AI平臺(tái)?;贜VIDIA Quantum-2 InfiniBand和Spectrum-X以太網(wǎng)網(wǎng)絡(luò)平臺(tái),HGX B200支持高達(dá)400Gb/s的網(wǎng)絡(luò)速度。
Blackwell的全球合作伙伴網(wǎng)絡(luò)
合作伙伴將從今年晚些時(shí)候開始供應(yīng)采用Blackwell架構(gòu)的產(chǎn)品。
AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure將成為首批提供 Blackwell驅(qū)動(dòng)實(shí)例的云服務(wù)提供商。同時(shí)NVIDIA云合作伙伴計(jì)劃的公司Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也將提供上述服務(wù)。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡電信、Northern Data Group的Taiga Cloud、Yotta Data Service 的Shakti Cloud和YTL Power International等主權(quán)AI云也將提供基于Blackwell架構(gòu)的云服務(wù)和基礎(chǔ)設(shè)施。
GB200還將通過NVIDIA DGX? Cloud提供,NVIDIA DGX? Cloud是一個(gè)與領(lǐng)先的云服務(wù)提供商共同設(shè)計(jì)的AI平臺(tái),可為企業(yè)開發(fā)人員提供專門的基礎(chǔ)設(shè)施和軟件訪問權(quán)限,使他們能夠構(gòu)建并部署先進(jìn)的生成式 AI 模型。AWS、Google Cloud和Oracle Cloud Infrastructure計(jì)劃在今年晚些時(shí)候托管采用NVIDIA Grace Blackwell的新實(shí)例。
Cisco、戴爾科技、慧與、聯(lián)想和Supermicro預(yù)計(jì)將提供基于Blackwell產(chǎn)品打造的各種服務(wù)器。Aivres、永擎電子、華碩、Eviden、Foxconn、技嘉、Inventec、和碩、QCT、Wistron、緯穎和 ZT Systems 也將提供基于Blackwell的服務(wù)器。
此外,越來越多的軟件制造商網(wǎng)絡(luò),包括工程仿真領(lǐng)域的全球領(lǐng)導(dǎo)者Ansys、Cadence和Synopsys,將使用基于Blackwell的處理器來加速其用于設(shè)計(jì)和仿真電氣、機(jī)械和制造系統(tǒng)及零件的軟件。他們的客戶可以更低成本、更高能效地使用生成式AI和加速計(jì)算,來加速產(chǎn)品上市。
NVIDIA軟件支持
Blackwell 產(chǎn)品組合由生產(chǎn)級(jí)AI端到端操作系統(tǒng)NVIDIA AI Enterprise支持。NVIDIA AI Enterprise中包含同日發(fā)布的NVIDIA NIM?推理微服務(wù)以及AI框架、程序庫和工具,企業(yè)可以部署在由NVIDIA提供加速的云、數(shù)據(jù)中心及工作站上。了解關(guān)于 NVIDIA Blackwell 平臺(tái)的更多信息,請(qǐng)觀看GTC主題演講回放并注冊(cè)GTC以參加由NVIDIA和行業(yè)領(lǐng)導(dǎo)者帶來的會(huì)議。本屆GTC將持續(xù)舉辦至3月21日。
評(píng)論