藍海變成紅海?AMD在AI領域向英偉達發(fā)起挑戰(zhàn)!
最近今年隨著各種生成式AI的大伙,英偉達著實是風光了好一陣子。作為被大眾成為新一代“工業(yè)革命”的生成式AI,在現(xiàn)實中雖剛剛進入應用階段,作為AI訓練最優(yōu)秀的硬件生產(chǎn)商的英偉達,股票可謂是節(jié)節(jié)高升,面對這一片藍海,其他廠商不可能不眼紅,于是就在前不久(2023年6月13日)英偉達的老對手AMD在數(shù)據(jù)中心和人工智能首映式上就發(fā)布了全新一代AI芯片,號稱世界上最強的AI處理芯片。
本文引用地址:http://m.butianyuan.cn/article/202306/447759.htm
英偉達AI計算平臺H100
在會議開始時,AMD 全球總裁兼 CEO 蘇姿豐表示:“今天,我們在數(shù)據(jù)中心戰(zhàn)略上又向前邁出了重要一步,因為我們擴展了第四代 EPYC 處理器系列,為云和技術計算工作負載提供了新的領先解決方案,并宣布了與最大的云提供商的新公共實例和內(nèi)部部署。人工智能是塑造下一代計算的決定性技術,也是 AMD 最大的戰(zhàn)略增長機會。我們專注于加速 AMD AI 平臺在數(shù)據(jù)中心的大規(guī)模部署,計劃于今年晚些時候推出我們的 Instinct MI300 加速器,以及為我們的硬件優(yōu)化的企業(yè)級 AI 軟件生態(tài)系統(tǒng)不斷壯大。”
隨后,蘇姿豐博士便發(fā)布了三款全新的面對數(shù)據(jù)中心和AI平臺的芯片,分別是:新一代的 Epyc 處理器,Bergamo 是針對云原生應用的產(chǎn)品線,也是第一款使用 Zen 4c 架構的產(chǎn)品;最新的緩存堆疊 X 芯片,代號為 Genoa-X,其與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,性能提高了 2.2 倍和 2.9 倍;新款 GPU 專用的 MI300X AI 加速器,并表示 MI300X 和 8-GPU Instinct 平臺將在第三季度出樣,并在第四季度推出。我們分別來簡要介紹一下。
正如上文所說,Bergamo 是針對云原生應用的產(chǎn)品線,Bergamo所使用的Zen 4c架構是一種“青春版”,進行了一系列的精簡,重新設計了L3快取系統(tǒng),對比完整的Zen 4架構,其芯片面積減少了35%。
在具體規(guī)模方面, Bergamo Epyc 處理器具有 最高128 個核心和 256 個線程,分布在八個核心復合芯片上。其中每一個CCD芯片之上,有16個Zen 4c,而一顆Bergamo其上最多集成8個CCD,因此其最高具備128 核心,同時其采用了臺積電5nm工藝制造,共有高達 820 億個晶體管。
AMD Bergamo Epyc 處理器
而Meta將作為Bergamo芯片最先一批客戶,Meta計劃為其基礎架構使用Bergamo,它的性能比上一代 Milan 芯片高出 2.5 倍。Meta 還將使用 Bergamo 作為其存儲平臺。
接下來便便是AMD推出的Genoa-X,其針對的場景主要是高性能計算,例如:流體力學、分子動力學、有限元分析等等對于帶寬要求極高的科學計算應用。為此AMD在Genoa-X CPU 在每個芯片計算芯片上堆疊了 64MB SRAM 塊,因此其三級緩存來到了驚人的1.1GB的大小。得益于如此恐怖的三級緩存大小,Genoa-X 與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,其對于流體力學的計算能力直接提升了2.2倍。
AMD Genoa-X
而本次發(fā)布會的重磅內(nèi)容,自然是AMD面向AI的計算平臺,Instinct MI300 加速器。它的對標對手,正是近期大紅大紫的英偉達“地球最強”GPU計算平臺,H100系列。AMD Instinct MI300 于去年 6 月首次發(fā)布,并在 2023 年國際消費電子展上進行了更深入的詳細介紹,這是 AMD 在 AI 和 HPC 市場的重要一步。
AMD直面英偉達推出的AI計算平臺MI300系列
在本次發(fā)布會之上,蘇姿豐發(fā)布了兩款MI300系列加速器,分別是MI300A和MI300X。其中,MI300A是“基礎款”,MI300X則是硬件性能更高的“大模型優(yōu)化款”。
我們先來看看MI300A的基本情況,據(jù)AMD表示,MI300A是首款AMD面對AI和高性能計算(HPC)推出的APU。它一共擁有13個小芯片,包含9個5nm制程GPU+CPU,以及4個6nm制程的小芯片(base dies),包含1460億個晶體管,其中有24個Zen 4 CPU核心,1個CDNA 3圖形引擎,128GB的HBM3內(nèi)存。九個計算裸片混合了 5nm CPU 和 GPU,它們以 3D 方式堆疊在四個 6nm 基礎裸片之上,這些裸片是處理內(nèi)存和 I/O 流量以及其他功能的有源中介層。對比與上一代產(chǎn)品MI250,性能提升了8倍,效率提升了5倍。
作為重量級產(chǎn)品的MI300X,AMD在PPT上打出了十分令人矚目的一行字:For LLM——大語言模型專用。AMD表示,MI300X的高帶寬內(nèi)存(HBM)密度,最高可達英偉達H100的2.4倍,高帶寬內(nèi)存帶寬最高可達H100的1.6倍,顯然MI300X能運行比H100更大的AI模型。在發(fā)布會上,蘇姿豐博士還現(xiàn)場運行了Hugging Face 的falcon-40b-instruct模型,寫了首關于舊金山(這次AMD發(fā)布會地址)的小詩,以此來展示MI300X在本地處理大語言模型的強大算力。
在硬件參數(shù)方面,MI300X包含12個小芯片,1530億個晶體管,192GB的HBM3內(nèi)存,內(nèi)存帶寬達到5.2TB/s,Infinity Fabric帶寬達到896GB/s。這次MI300X所提供的HBM密度是對手英偉達H100的2.4倍,HBM帶寬則是1.6倍。單單從硬件參數(shù)上來看,MI300X無疑是已經(jīng)超過了英偉達的H100,成為了這個星球上,最強的LLM訓練硬件,但是有趣的是,就在MI300系列發(fā)布的時刻,資本市場的反應卻不是很樂觀。
隨著發(fā)布會的進行,AMD的股票是一跌再跌。跌幅最大的時候一度超過了3.61%,而英偉達這邊倒是迎來的一波小小的漲幅。看來對于投資者來說,對于AMD強勢發(fā)布的MI300系列好像并不是很好看。鑒于AMD這幾年來在AI方面的遲緩,再加上MI300X要等到今年年末才有可能被AMD推向市場,這種股價變動,倒也是在意料之中。
不管怎么說,英偉達已經(jīng)在AI計算領域稱王稱霸了許久,現(xiàn)在終于有一個實力“靠譜”的新選手上臺挑戰(zhàn)了,無論結(jié)果如何,對于整個市場來說一定是樂于見到的,比起英偉達的一家獨大,百家爭鳴才是一個良性的環(huán)境。
評論