博客專欄

EEPW首頁 > 博客 > HBM的未來:必要但昂貴

HBM的未來:必要但昂貴

發(fā)布人:傳感器技術 時間:2023-07-26 來源:工程師 發(fā)布文章

高帶寬內(nèi)存 (HBM) 正在成為超大規(guī)模廠商的首選內(nèi)存,但其在主流市場的最終命運仍存在疑問。雖然它在數(shù)據(jù)中心中已經(jīng)很成熟,并且由于人工智能/機器學習的需求而使用量不斷增長,但其基本設計固有的缺陷阻礙了更廣泛的采用。一方面,HBM 提供緊湊的 2.5D 外形尺寸,可大幅減少延遲。


Rambus產(chǎn)品營銷高級總監(jiān) Frank Ferro在本周的 Rambus 設計峰會上的演講中表示:“HBM 的優(yōu)點在于,您可以在很小的占地面積內(nèi)獲得所有這些帶寬,而且還可以獲得非常好的電源效率?!?/p>


缺點是它依賴昂貴的硅中介層和 TSV 來運行。


圖片

圖 1:實現(xiàn)最大數(shù)據(jù)吞吐量的 HBM 堆棧


Cadence IP 團隊產(chǎn)品營銷總監(jiān) Marc Greenberg 表示:“目前困擾高帶寬內(nèi)存的問題之一是成本。3D 堆疊成本高昂。有一個邏輯芯片位于芯片堆疊的底部,這是您必須支付的額外硅片。然后是硅中介層,它位于 CPU 或 GPU 以及 HBM 內(nèi)存下的所有內(nèi)容之下。然后,你需要一個更大的封裝等等,這是需要昂貴的代價的?!盡arc Greenberg進一步指出:“目前存在的 HBM 脫離了消費者領域,并更牢固地放置在服務器機房或數(shù)據(jù)中心,存在許多系統(tǒng)成本。相比之下,GDDR6 等圖形內(nèi)存雖然無法提供與 HBM 一樣多的性能,但成本卻顯著降低。GDDR6 的單位成本性能實際上比 HBM 好得多,但 GDDR6 器件的最大帶寬與 HBM 的最大帶寬不匹配?!?/p>


Greenberg 表示,這些差異為公司選擇 HBM 提供了令人信服的理由,即使它可能不是他們的第一選擇?!癏BM 提供了大量的帶寬,并且點對點傳輸?shù)哪芰繕O低。您使用 HBM 是因為您必須這樣做,因為您沒有其他解決方案可以為您提供所需的帶寬或所需的功率配置文件?!?/p>


而且 HBM 只會變得越來越快?!拔覀冾A計 HBM3 Gen2 的帶寬將提高 50%,”美光計算產(chǎn)品事業(yè)部副總裁兼總經(jīng)理 Praveen Vaidyanathan 說道?!皬拿拦獾慕嵌葋砜?,我們預計 HBM3 Gen2 產(chǎn)品將在 2024 財年期間實現(xiàn)量產(chǎn)。在 2024 日歷年年初,我們預計隨著時間的推移,將開始為預期的數(shù)億美元收入機會做出貢獻。此外,我們預測美光的 HBM3 將貢獻比 DRAM 更高的利潤?!?/p>


盡管如此,經(jīng)濟因素可能會迫使許多設計團隊考慮價格敏感應用的替代方案。


“如果有任何其他方法可以將問題細分為更小的部分,您可能會發(fā)現(xiàn)它更具成本效益,”Greenberg 指出。“例如,與其面對一個巨大的問題并說,‘我必須在一個硬件上執(zhí)行所有這些操作,而且我必須在那里擁有 HBM,也許我可以將其分成兩部分,讓兩個進程并行運行,也許連接到 DDR6。如果我能夠?qū)⒃搯栴}細分為更小的部分,那么我可能會以更低的成本完成相同數(shù)量的計算。但如果您需要那么大的帶寬,那么 HBM 就是您可以承受成本的方法。”


散熱挑戰(zhàn)


另一個主要缺點是 HBM 的 2.5D 結構會積聚熱量,而其放置在靠近 CPU 和 GPU 的位置會加劇這種情況。事實上,在試圖給出不良設計的理論示例時,很難想出比當前布局更糟糕的東西,當前布局將 HBM及其熱敏 DRAM 堆棧放置在計算密集型熱源附近。


“最大的挑戰(zhàn)是熱量,”Greenberg 說?!澳阌幸粋€ CPU,根據(jù)定義它會生成大量數(shù)據(jù)。您通過此接口每秒傳輸太比特數(shù)。即使每筆交易只有少量皮焦耳,但每秒都會執(zhí)行十億筆交易,因此您的 CPU 會非常熱。它不僅僅是移動周圍的數(shù)據(jù)。它也必須進行計算。最重要的是最不喜歡熱的半導體組件,即 DRAM。85℃左右它開始忘記東西,125℃左右則完全心不在焉。這是兩個截然不同的事情?!?/p>


還有一個可取之處?!皳碛?2.5D 堆棧的優(yōu)勢在于,CPU 很熱,而 HBM 位于 CPU 旁邊,因此喜歡冷,之間有一定的物理隔離,”他說。


在延遲和熱量之間的權衡中,延遲是不可變的?!拔覜]有看到任何人犧牲延遲,”Synopsys 內(nèi)存接口 IP 解決方案產(chǎn)品線總監(jiān) Brett Murdock說道?!拔铱吹剿麄兺苿游锢韴F隊尋找更好的冷卻方式,或者更好的放置方式,以保持較低的延遲?!?/p>


考慮到這一挑戰(zhàn),多物理場建??梢蕴岢鰷p少熱問題的方法,但會產(chǎn)生相關成本。“這就是物理學變得非常困難的地方,” Ansys產(chǎn)品經(jīng)理 Marc Swinnen 說。“功率可能是集成所能實現(xiàn)的最大限制因素。任何人都可以設計一堆芯片并將它們?nèi)窟B接起來,所有這些都可以完美工作,但你無法冷卻它。散發(fā)熱量是可實現(xiàn)目標的根本限制?!?/p>


潛在的緩解措施可能很快就會變得昂貴,從微流體通道到浸入非導電液體,再到確定散熱器上需要多少個風扇或翅片,以及是否使用銅或鋁。


可能永遠不會有完美的答案,但模型和對期望結果的清晰理解可以幫助創(chuàng)建合理的解決方案?!澳惚仨毝x最佳對你來說意味著什么,”Swinnen說?!澳阆胍詈玫臒崃繂??最好的成本?兩者之間的最佳平衡?你將如何衡量它們?答案依賴于模型來了解物理學中實際發(fā)生的情況。它依靠人工智能來處理這種復雜性并創(chuàng)建元模型來捕捉這個特定優(yōu)化問題的本質(zhì),并快速探索這個廣闊的空間。”


HBM 和 AI


雖然很容易想象計算是 AI/ML 最密集的部分,但如果沒有良好的內(nèi)存架構,這一切都不會發(fā)生。需要內(nèi)存來存儲和檢索數(shù)萬億次計算。事實上,在某種程度上,添加更多 CPU 并不會提高系統(tǒng)性能,因為內(nèi)存帶寬無法支持它們。這就是臭名昭著的“內(nèi)存墻”瓶頸。


Quadric首席營銷官 Steve Roddy 表示,從最廣泛的定義來看,機器學習只是曲線擬合?!霸谟柧氝\行的每次迭代中,你都在努力越來越接近曲線的最佳擬合。這是一個 X,Y 圖,就像高中幾何一樣。大型語言模型基本上是同一件事,但是是 100 億維,而不是 2 維。”


因此,計算相對簡單,但內(nèi)存架構可能令人難以置信。


Roddy 解釋說:“其中一些模型擁有 1000 億字節(jié)的數(shù)據(jù),對于每次重新訓練迭代,您都必須通過數(shù)據(jù)中心的背板從磁盤上取出 1000 億字節(jié)的數(shù)據(jù)并放入計算箱中。”“在兩個月的訓練過程中,你必須將這組巨大的內(nèi)存值來回移動數(shù)百萬次。限制因素是數(shù)據(jù)的移入和移出,這就是為什么人們對 HBM 或光學互連等從內(nèi)存?zhèn)鬏數(shù)接嬎憬Y構的東西感興趣。所有這些都是人們投入數(shù)十億美元風險投資的地方,因為如果你能縮短距離或時間,你就可以大大簡化和縮短訓練過程,無論是切斷電源還是加快訓練速度?!?/p>


出于所有這些原因,高帶寬內(nèi)存被認為是 AI/ML 的首選內(nèi)存?!八鼮槟峁┝四承┯柧毸惴ㄋ璧淖畲髱挘盧ambus 的 Ferro 說。“從你可以擁有多個內(nèi)存堆棧的角度來看,它是可配置的,這為你提供了非常高的帶寬。”


這就是人們對 HBM 如此感興趣的原因。“我們的大多數(shù)客戶都是人工智能客戶,”Synopsys 的Murdock說。“他們正在 LPDDR5X 接口和 HBM 接口之間進行一項重大的基本權衡。唯一阻礙他們的是成本。他們真的很想去 HBM。這是他們對技術的渴望,因為你無法觸及在一個 SoC 周圍可以創(chuàng)建的帶寬量。現(xiàn)在,我們看到 SoC 周圍放置了 6 個 HBM 堆棧,這需要大量的帶寬?!?/p>


然而,人工智能的需求如此之高,以至于 HBM 減少延遲的前沿特征突然顯得過時且不足。這反過來又推動了下一代 HBM 的發(fā)展。


“延遲正在成為一個真正的問題,”Ferro說?!霸?HBM 的前兩輪中,我沒有聽到任何人抱怨延遲?,F(xiàn)在我們一直收到有關延遲的問題?!?/p>


Ferro 建議,鑒于當前的限制,了解數(shù)據(jù)尤為重要?!八赡苁沁B續(xù)的數(shù)據(jù),例如視頻或語音識別。它可能是事務性的,就像財務數(shù)據(jù)一樣,可能非常隨機。如果您知道數(shù)據(jù)是隨機的,那么設置內(nèi)存接口的方式將與流式傳輸視頻不同。這些是基本問題,但也有更深層次的問題。我要在記憶中使用的字長是多少?內(nèi)存的塊大小是多少?您對此了解得越多,您設計系統(tǒng)的效率就越高。如果您了解它,那么您可以定制處理器以最大限度地提高計算能力和內(nèi)存帶寬。我們看到越來越多的 ASIC 式 SoC 正在瞄準特定市場細分市場,以實現(xiàn)更高效的處理?!?/p>


使其更便宜(也許)


如果經(jīng)典的 HBM 實現(xiàn)是使用硅中介層,那么就有希望找到成本更低的解決方案?!斑€有一些方法可以在標準封裝中嵌入一小塊硅,這樣就沒有一個完整的硅中介層延伸到所有東西下面,”Greenberg說?!癈PU 和 HBM 之間只有一座橋梁。此外,在標準封裝技術上允許更細的引腳間距也取得了進展,這將顯著降低成本。還有一些專有的解決方案,人們試圖通過高速 SerDes 類型連接來連接存儲器,沿著 UCIE 的路線,并可能通過這些連接來連接存儲器。目前,這些解決方案是專有的,但我希望它們能夠標準化。”


Greenberg表示,可能存在平行的發(fā)展軌跡:“硅中介層確實提供了可能的最精細的引腳間距或線間距——基本上是用最少的能量實現(xiàn)最大的帶寬——所以硅中介層將永遠存在。但如果我們作為一個行業(yè)能夠聚集在一起并決定一個適用于標準封裝的內(nèi)存標準,那么就有可能提供類似的帶寬,但成本卻要低得多?!?/p>


人們正在不斷嘗試降低下一代的成本?!芭_積電已宣布他們擁有三種不同類型的中介層,”Ferro 說?!八麄冇幸粋€ RDL 中介層,他們有硅中介層,他們有一些看起來有點像兩者的混合體。還有其他技術,例如如何完全擺脫中介層。您可能會在接下來的 12 或 18 個月內(nèi)看到一些如何在頂部堆疊 3D 內(nèi)存的原型,理論上可以擺脫中介層。事實上,IBM 多年來一直在這樣做,但現(xiàn)在已經(jīng)到了你不必成為 IBM 也能做到這一點的地步。”


解決該問題的另一種方法是使用較便宜的材料。“正在研究非常細間距的有機材料,以及它們是否足夠小以處理所有這些痕跡,”Ferro說。“此外,UCIe是通過更標準的材料連接芯片的另一種方式,以節(jié)省成本。但同樣,你仍然必須解決通過這些基材的數(shù)千條痕跡的問題?!?/p>


Murdock希望通過規(guī)模經(jīng)濟來削減成本?!半S著 HBM 越來越受歡迎,成本方面將有所緩解。HBM 與任何 DRAM 一樣,歸根結底都是一個商品市場。在中介層方面,我認為下降速度不會那么快。這仍然是一個需要克服的挑戰(zhàn)?!?/p>


但原材料成本并不是唯一的考慮因素?!斑@還取決于 SoC 需要多少帶寬,以及電路板空間等其他成本,”Murdock 說?!皩τ谀切┫胍咚俳涌诓⑿枰罅繋挼娜藖碚f,LPDDR5X 是一種非常受歡迎的替代方案,但與 HBM 堆棧的通道數(shù)量相匹配所需的 LPDDR5X 通道數(shù)量相當大。您有大量的設備成本和電路板空間成本,這些成本可能令人望而卻步。僅就美元而言,也可能是一些物理限制促使人們轉(zhuǎn)向 HBM,盡管從美元角度來看它更昂貴?!?/p>


其他人對未來成本削減則不太確定。Objective Analysis 首席分析師 Jim Handy 表示:“降低 HBM 成本將是一項挑戰(zhàn)?!薄坝捎趯?TSV 放置在晶圓上的成本很高,因此加工成本已經(jīng)明顯高于標準 DRAM。這使得它無法擁有像標準 DRAM 一樣大的市場。由于市場較小,規(guī)模經(jīng)濟導致成本在一個自給自足的過程中更高。體積越小,成本越高,但成本越高,使用的體積就越少。沒有簡單的方法可以解決這個問題?!?/p>


盡管如此,Handy 對 HBM 的未來持樂觀態(tài)度,并指出與 SRAM 相比,它仍然表現(xiàn)出色?!癏BM 已經(jīng)是一個成熟的 JEDEC 標準產(chǎn)品,”他說?!斑@是一種獨特的 DRAM 技術形式,能夠以比 SRAM 低得多的成本提供極高的帶寬。它還可以通過封裝提供比 SRAM 更高的密度。它會隨著時間的推移而改進,就像 DRAM 一樣。隨著接口的成熟,預計會看到更多巧妙的技巧來提高其速度。”


事實上,盡管面臨所有挑戰(zhàn),HBM 還是有理由保持樂觀。“標準正在迅速發(fā)展,”費羅補充道?!叭绻憧纯?HBM 如今的發(fā)展,你會發(fā)現(xiàn)它大約以兩年為節(jié)奏,這確實是一個驚人的速度?!?/p>


來源:半導體行業(yè)觀察

 


*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



關鍵詞: HBM

相關推薦

技術專區(qū)

關閉