NVIDIACEO表示將把人工智能帶入各產(chǎn)業(yè)
NVIDIACEO黃仁勳在GTC 大會主題演講中表示將把人工智能帶入各產(chǎn)業(yè)。NVIDIA
隨著如今運算技術(shù)出現(xiàn)他所說的「光速」發(fā)展速度,NVIDIA創(chuàng)始人暨CEO黃仁勳宣布與Google、微軟、Oracle(甲骨文)及多家重量級企業(yè)展開更大規(guī)模的合作活動,將為各行各業(yè)帶來嶄新的人工智能、模擬及協(xié)作能力。黃仁勳在NVIDIA的GTC大會主題演講中表示:「曲速引擎是加速運算,而它的能量來源正是人工智能。生成式人工智能的出色能力,讓各大企業(yè)開始對于重新構(gòu)思產(chǎn)品和商業(yè)模式有了迫切感?!?/p>
黃仁勳發(fā)表了長達78分鐘的主題演講,替為期四天的GTC大會揭開序幕,演講中介紹了NVIDIA與合作夥伴如何為尖端人工智能服務(wù)提供從訓練到部署的各項內(nèi)容。他宣布推出新款半導體和軟件庫,以協(xié)助推動新的突破研究成果。
黃仁勳還宣布將推出一整套系統(tǒng)和服務(wù),供全球競相落實這些創(chuàng)新項目的新創(chuàng)公司及企業(yè)使用。黃仁勳不時在演講中用生動的例子,說明這個生態(tài)系統(tǒng)所扮演的角色。并宣布NVIDIA與微軟將把數(shù)億名Microsoft365 及Azure使用者與用于建立及運作超現(xiàn)實虛擬世界的平臺連結(jié)起來。他帶領(lǐng)觀眾們了解Amazon(亞馬遜)如何使用復雜的模擬能力來訓練新式自主倉庫機器人。他也在演講中談到像是ChatGPT 這類新一代大受歡迎生成式人工智能服務(wù)的出現(xiàn)。
黃仁勳在強調(diào)NVIDIA進行創(chuàng)新的基礎(chǔ)本質(zhì)時,詳細介紹了NVIDIA在運算微影技術(shù)的突破性成果,是如何與 ASML、臺積電及Synopsis合作打造出新一代高效強大的2納米半導體。黃仁勳表示加速運算與人工智能來的正是時候,隨著摩爾定律的放緩,各行各業(yè)都在因應(yīng)永續(xù)發(fā)展、生成式人工智能及數(shù)碼化這些強大驅(qū)動市場前行的動能所帶來的挑戰(zhàn)?!腹I(yè)領(lǐng)域里的業(yè)者爭相進行數(shù)碼化,將自己重新塑造為軟件驅(qū)動的科技公司- - 企圖成為顛覆市場的人,而非被市場顛覆的人?!?/p>
黃仁勳說。加速運算技術(shù)可以協(xié)助這些業(yè)者因應(yīng)這些挑戰(zhàn)。黃仁勳說:「加速運算是減少用電量、達到永續(xù)發(fā)展及凈零排放目標的最佳途徑。」
GTC大會:規(guī)模最大的人工智能盛會
走過十四個年頭的GTC大會,儼然成為全球最重要的人工智能盛會之一。2023年的GTC大會共有650場講座,特別力邀DeepMind的Demis Hassabis、阿貢國家實驗室的Valeri Taylor、Adobe 的 Scott Belsky、Netflix的Paul Debevec、蘇黎世聯(lián)邦理工學院的Thomas Schulthess等重量級貴賓,以及黃仁勳與 OpenAI的共同創(chuàng)始人,也是建立ChatGPT的Ilya Sutskever,進行一場特別的爐邊談話。有超過25萬人報名參加2023年的GTC大會,將能夠深入探討從修復兩千年前遺失的羅馬馬賽克圖案,到打造未來工廠;從使用新一代大型望遠鏡探索宇宙,到重新排列分子以加速藥物發(fā)現(xiàn),以及超過70場關(guān)于生成式人工智能的演講。
人工智能迎來 iPhone 時刻
NVIDIA的技術(shù)是發(fā)展人工智能的基礎(chǔ),黃仁勳講述了NVIDIA如何在生成式人工智能革命的初期便參與其中。他早在2016年便親手將第一臺NVIDIA DGX人工智能超級電腦交給OpenAI,這是用于在背后支持 ChatGPT 這項大型語言模型出現(xiàn)突破性成果的引擎。
2022年底甫亮相的ChatGPT,幾乎瞬間成為市場當紅主流,吸引超過一億人使用,成為史上成長速度快的應(yīng)用程序。「我們正處于人工智能的 iPhone 時刻?!裹S仁勳說。黃仁勳表示 NVIDIA DGX 超級電腦一開始是當成研究人工智能的工具,如今全球各地的企業(yè)一整天都在運行這具超級電腦,以完善數(shù)據(jù)和處理人工智能。財富100強(Fortune 100)排行榜中有半數(shù)的企業(yè)都裝有 DGX AI 超級電腦?!窪GX超級電腦是現(xiàn)代人工智能工廠?!裹S仁勳說。
用于數(shù)據(jù)中心的NVIDIA H100、Grace Hopper、Grace
黃仁勳表示部署像ChatGPT這樣的大型語言模型,是一新式的、相當重要的推論工作負載。黃仁勳宣布針對像是ChatGPT這樣類型的大型語言模型推論作業(yè)推出新款GPU,即擁有雙GPU NVLink的H100 NVL。
采用NVIDIA Hopper架構(gòu)的H100具有一個Transformer引擎,用于處理像是支持ChatGPT的GPT等模型。與用于處理GPT-3的HGX A100相比,一臺搭載四對H100及雙GPU NVLink的標準服務(wù)器,其處理速度最高可提升十倍?!窰100 可以將處理大型語言模型的成本降低一個數(shù)量級,」黃仁勳說,「同時在過去十年里,云端運算市場的規(guī)模每年成長20%,產(chǎn)業(yè)市值達到一萬億美元。」
NVIDIA設(shè)計用于人工智能及云端優(yōu)先環(huán)境的Grace CPU,由GPU加速執(zhí)行各項人工智能工作負載。黃仁勳說現(xiàn)正將Grace的樣品送給各大廠商進行測試。NVIDIA的新款超級芯片Grace Hopper,以每秒 900GB 的高速一致性芯片到芯片(chip-to-chip)界面連接Grace CPU和Hopper GPU。黃仁勳說Grace Hopper是處理用于推薦系統(tǒng)的人工智能數(shù)據(jù)庫,還有大型語言模型這一類海量數(shù)據(jù)集的理想選擇。并補充道:「客戶想要把人工智能數(shù)據(jù)庫擴大幾個數(shù)量級。Grace Hopper 是理想的引擎。」
DGX是打造人工智能基礎(chǔ)設(shè)施的藍圖
最新版的DGX搭載8個NVIDIA H100 GPU,這8個GPU連在一起變成一個巨大的GPU來處理各項工作。黃仁勳說:「NVIDIA DGX H100是全球客戶建造人工智能基礎(chǔ)設(shè)施的藍圖。」,并且分享NVIDIA DGX H100 現(xiàn)已全面投產(chǎn)。
H100 人工智能超級電腦已經(jīng)上線。Oracle Cloud Infrastructure 宣布限量推出搭載 H100 GPU 的新式 OCI Compute 裸機 GPU 執(zhí)行個體。
此外,Amazon Web Services宣布即將推出P5執(zhí)行個體的EC2 UltraClusters,其規(guī)??梢詳U大到兩萬個互連的H100 GPU。微軟Azure才在上周宣布推出H100虛擬機器 ND H100 v5 的非公開專屬預覽活動。Meta 在公司內(nèi)部部署了供人工智能生產(chǎn)和研究團隊使用、搭載H100的Grand Teton AI超級電腦。OpenAI將在其Azure超級電腦上使用H100,以持續(xù)支持其人工智能研究。其他提供 搭載H100云端平臺服務(wù) 的合作夥伴還有Cirrascale及CoreWeave,這兩家公司今天都宣布全面提供。此外,Google Cloud、Lambda、Paperspace及Vult計劃推出搭載H100的云端平臺。
各大服務(wù)器制造商現(xiàn)已開始提供搭載NVIDIA H100 GPU的服務(wù)器和系統(tǒng),這些業(yè)者有源訊(Atos) 、思科系統(tǒng)(Cisco) 、戴爾科技集團(Dell Technologies)、技嘉科技、慧與科技公司(Hewlett Packard Enterprise)、聯(lián)想集團 (Lenovo)及 美超微電腦 (Supermicro)。
DGX Cloud:立即將人工智能帶給每個公司
黃仁勳宣布推出NVIDIA DGX Cloud,與微軟Azure、Google Cloud 及 Oracle Cloud Infrastructure 合作,「每間公司只要簡單透過網(wǎng)絡(luò)瀏覽器就能使用NVIDIA DGX AI超級電腦」,讓那些爭相打造新產(chǎn)品及制定人工智能策略的新創(chuàng)公司和企業(yè)可以更快取得DGX的強大實力。完成最佳化調(diào)整的DGX Cloud可以運行 NVIDIA AI Enterprise,這是獨步全球的加速軟件套件,用于端到端的人工智能開發(fā)和部署作業(yè)。「DGX Cloud把NVIDIA AI技術(shù)的精華,還有全球各大云端服務(wù)提供商的優(yōu)點都交到客戶的手上。」黃仁勳說。
NVIDIA與各大云端服務(wù)提供商合作托管DGX Cloud 基礎(chǔ)設(shè)施,由Oracle Cloud Infrastructure搶得頭香。微軟Azure預計將在下一季開始托管DGX Cloud,Google Cloud等其他業(yè)者將隨后跟上。黃仁勳表示這項合作關(guān)系將NVIDIA的生態(tài)系統(tǒng)帶給云端服務(wù)提供商,又擴大了NVIDIA的規(guī)模和接觸范圍。企業(yè)將能夠按月租用DGX Cloud叢集,確保他們可以輕松快速地調(diào)整發(fā)展大型多節(jié)點訓練工作負載的規(guī)模。
助力生成式人工智能的發(fā)展
黃仁勳宣布推出NVIDIA AI Foundations云端服務(wù)系列,供需要建立、完善和操作自訂大型語言模型,以及使用專有數(shù)據(jù)來訓練生成式人工智能以執(zhí)行特定領(lǐng)域任務(wù)的客戶使用,讓想要利用生成式人工智能的人可以加速執(zhí)行各項工作。AI Foundations服務(wù)包括用于建立自訂語言文字轉(zhuǎn)文字生成式模型的NVIDIA NeMo;Picasso視覺語言模型制作服務(wù),適用于想要建立用取得授權(quán)或?qū)S袃?nèi)容來訓練自訂模型的客戶;以及 BioNeMo,供市值兩萬億美元藥物發(fā)現(xiàn)產(chǎn)業(yè)的研究人員使用。
Adobe與NVIDIA合作打造一套適用于未來創(chuàng)意人的下一代人工智能功能。Getty Images與NVIDIA合作訓練開發(fā)負責任的生成式文字轉(zhuǎn)圖片及文字轉(zhuǎn)影片基礎(chǔ)模型。Shutterstock與NVIDIA合作訓練一個生成式文字轉(zhuǎn)3D的基礎(chǔ)模型,讓建立精細3D資產(chǎn)的工作變得更簡單。
加速推動醫(yī)學領(lǐng)域進步
NVIDIA 宣布 Amgen(安進)將使用 BioNeMo 加快推動藥物發(fā)現(xiàn)服務(wù)。Alchemab Therapeutics、AstraZeneca、Evozyne、Innophore 及 Insilico 也都是搶先試用 BioNemo 的客戶。黃仁勳說 BioNeMo 幫助研究人員用他們自己的專有數(shù)據(jù)來建立、微調(diào)和自訂模型。
黃仁勳另宣布NVIDIA與全球最大的醫(yī)療科技提供商Medtronic(美敦力)合作,為軟件定義的醫(yī)療設(shè)備建立人工智能平臺。這項合作關(guān)系將為Medtronic旗下的手術(shù)導航,以及機器人輔助手術(shù)等系統(tǒng)建立一個通用平臺。Medtronic宣布該公司使用NVIDIA Holoscan打造出的GI Genius系統(tǒng),透過人工智能對大腸結(jié)腸癌進行早期檢測。NVIDIA Holoscan是用于實時傳感器處理系統(tǒng)的軟件庫,將于2023年底左右出貨。「全球市值2500億美元的醫(yī)療儀器市場將進行轉(zhuǎn)型?!裹S仁勳說。
加速部署生成式人工智能應(yīng)用程序
黃仁勳宣布推出用于人工智能影片、影像生成、LLM部署及推薦系統(tǒng)推論作業(yè)的推論平臺,以幫助企業(yè)部署快速興起的生成式人工智能模型。在這個平臺中結(jié)合了NVIDIA推論軟件的完整堆疊和最新的NVIDIA Ada、Hopper及Grace Hopper處理器,包括推出的NVIDIA L4 Tensor核心GPU與NVIDIA H100 NVL GPU。
用于人工智能影片的NVIDIA L4,其制作人工智能影片的效能較CPU多出120倍,能源使用效率也提高99%。用于影像生成的NVIDIA L40針對繪圖及人工智能生成的2D、影片和3D影像進行了最佳化調(diào)整。
用于部署大型語言模型的NVIDIA H100 NVL是大規(guī)模部署像是ChatGPT這類大型語言模型的理想選擇。
用于推薦模型的NVIDIA Grace Hopper是圖形推薦模型、矢量圖形數(shù)據(jù)庫及繪圖神經(jīng)網(wǎng)絡(luò)的理想選擇。
Google Cloud是率先將L4提供給客戶的云端服務(wù)提供商,推出了新款G2虛擬機器,開放非公開專屬預覽活動。Google也將在Vertex AI模型商店中加入L4。
微軟與NVIDIA將把Omniverse帶給「數(shù)億」人使用
黃仁勳在公布第二項云端服務(wù),讓企業(yè)更快取得前所未有的模擬及協(xié)作能力時,宣布 NVIDIA 將與微軟合作,讓全球各行各業(yè)可以使用到NVIDIA Omniverse Cloud這項完全托管的云端服務(wù)。黃仁勳表示:「微軟與NVIDIA將合作讓數(shù)億名Microsoft 365和Azure用戶可以使用到 Omnivese?!顾€公布新款NVIDIA OVX服務(wù)器與新一代工作站產(chǎn)品,在這些產(chǎn)品上搭載了NVIDIA RTX Ada Generation GPU及Intel針對 NVIDIA Omniverse進行最佳化的最新款 CPU。
黃仁勳為展示 NVIDIA 替 3D 設(shè)計協(xié)作和數(shù)碼孿生模擬而打造的開放式 Omniverse 平臺出色功能,透過一支影片展示建立在 Omniverse 上的 NVIDIA 機器人模擬和合成生成平臺 NVIDIA Isaac Sim,如何制作出極具真實感的數(shù)碼孿生模型,協(xié)助用戶節(jié)省寶貴的金錢和時間。在這支影片中可以看到 Amazon(亞馬遜)如何努力編排 Amazon 首個全自主倉庫機器人 Proteus 的動作,它在 Amazon 寬敞的倉庫中與人類及其他機器人共同將一箱箱產(chǎn)品從一處搬到另一處。
市值三萬億美元的汽車產(chǎn)業(yè)將進行數(shù)碼化
黃仁勳深入介紹 Omniverse 在帶領(lǐng)市值三萬億美元之汽車產(chǎn)業(yè)進行數(shù)碼化的過程中所扮演的角色,讓更多人明白 Omniverse 的影響力和能力。黃仁勳表示到2030年之際,汽車制造商將建造出三百座工廠,生產(chǎn)兩億輛電動車,而電池制造商正在興建百座巨型工廠?!笖?shù)碼化將提高產(chǎn)業(yè)的效率、生產(chǎn)力和速度?!裹S仁勳說。
在談到整個車業(yè)使用Omniverse的情況時,黃仁勳表示吉利路特斯(Geely Lotus)使用Omniverse來開發(fā)虛擬的裝配焊接站。Mercedes-Benz使用Omniverse為新車款建立、最佳化及規(guī)劃裝配線。Rimac與Lucid Motors使用Omniverse使用實際的設(shè)計數(shù)據(jù)來建立數(shù)碼商店,原原本本地表現(xiàn)車款的樣子。BMW與 Idealworks合作使用Omniverse中的Isaac Sim,產(chǎn)生各種合成數(shù)據(jù)和情境來訓練工廠機器人。
黃仁勳說,BMW使用Omniverse來規(guī)劃全球各處工作的運作,另外還在工廠落成啟用前,以兩年時間完全在Omniverse中規(guī)劃一處新的電動車工廠。NVIDIA此外還宣布領(lǐng)先全球的新能源車(NEV)制造商比亞迪,將擴大把NVIDIA DRIVE Orin集中運算平臺用在旗下更多的NEV車款。
加速推動半導體業(yè)取得突破性創(chuàng)新成就
由于當前的半導體制程已接近物理學的極限,黃仁勳宣布推出NVIDIA cuLitho,這項突破性技術(shù)將加速運算技術(shù)用于運算微影領(lǐng)域,能夠幫助ASML、臺積電與Synopsis等半導體領(lǐng)導業(yè)者加速推動設(shè)計與制造出新一代的芯片。全球最大的晶圓代工廠臺積電與電子設(shè)計自動化領(lǐng)導業(yè)者Synopsys,將用于運算微影技術(shù)的全新NVIDIA cuLitho軟件庫加入其最新一代NVIDIA Hopper架構(gòu)GPU的軟件、制程及系統(tǒng)中。
芯片制造設(shè)備供應(yīng)商ASML與NVIDIA就GPU及cuLitho進行密切合作,并且打算讓旗下每一款運算微影軟件產(chǎn)品開始支持GPU。黃仁勳表示由于微影技術(shù)處于物理學的極限,NVIDIA推出的cuLitho將使得半導體業(yè)能夠產(chǎn)生出2納米及更先進的半導體?!感酒瑯I(yè)幾乎是各行各業(yè)的基礎(chǔ)?!裹S仁勳說。
加速全球每個最大企業(yè)的運作效率
全球各大企業(yè)紛紛挺身支持黃仁勳的遠大愿景。電信大廠AT&T使用NVIDIA AI以提高處理數(shù)據(jù)的效率,且正在測試Omniverse ACE和Tokkio人工智能虛擬化身工作流程,為客服部門和員工服務(wù)臺建立、自訂及部署虛擬助理。美國運通、美國郵政署、Microsoft Office和Teams,以及Amazon等4萬名客戶,使用高效能 NVIDIA TensorRT推論優(yōu)化器和運行時,還有多架構(gòu)數(shù)據(jù)中心推論服務(wù)軟件NVIDIA Triton來促進其工作效率。
Uber使用Triton,每秒預測數(shù)10萬次預計抵達時間(ETA)。每天擁有超過6,000萬名活躍用戶的Roblox,使用 Triton 來提供游戲推薦模型、建立數(shù)碼分身,以及管理內(nèi)容和市場廣告。微軟、騰訊與百度都在人工智能電腦視覺作業(yè)方面開始使用NVIDIA CV-CUDA。NVIDIA CV-CUDA技術(shù)現(xiàn)為公測階段,針對前制及后制作業(yè)進行最佳化調(diào)整,有助于省下四倍的成本及能源使用量。
協(xié)助將不可能化為可能
黃仁勳在主題演講的尾聲,對NVIDIA的系統(tǒng)、云端及軟件合作夥伴,以及所有研究人員、科學家和員工表達謝意。黃仁勳宣布NVIDIA已經(jīng)更新了100個加速庫,包括用于量子計算的cuQuantum和全新開放原始碼的CUDA Quantum、用于組合最佳化的cuOpt,以及用于運算微影技術(shù)的cuLitho。黃仁勳表示NVIDIA 的全球生態(tài)系統(tǒng)現(xiàn)有400萬名開發(fā)人員、4萬家公司加入,而NVIDIA Inception計劃則有1.4萬間新創(chuàng)公司加入。黃仁勳說:「如此龐大的生態(tài)系統(tǒng)將協(xié)助全球各領(lǐng)域把不可能化為可能。」
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。