新聞中心

EEPW首頁 > 消費電子 > 設(shè)計應(yīng)用 > 淺談存儲器體系結(jié)構(gòu)的未來發(fā)展趨勢

淺談存儲器體系結(jié)構(gòu)的未來發(fā)展趨勢

作者: 時間:2017-10-21 來源:網(wǎng)絡(luò) 收藏

  對帶寬的追求成為系統(tǒng)設(shè)計最突出的主題。SoC設(shè)計人員無論是使用ASIC還是FPGA技術(shù),其思考的核心都是必須規(guī)劃、設(shè)計并實現(xiàn)。系統(tǒng)設(shè)計人員必須清楚的理解數(shù)據(jù)流模式,以及芯片設(shè)計人員建立的端口。即使是存儲器供應(yīng)商也面臨DDR的退出,要理解系統(tǒng)行為,以便找到持續(xù)發(fā)展的新方法。

本文引用地址:http://m.butianyuan.cn/article/201710/367190.htm

  曾經(jīng)在斯坦福大學(xué)舉辦的熱點芯片大會上,尋求帶寬成為論文討論的主題,設(shè)計人員介紹了很多方法來解決所面臨的挑戰(zhàn)。從這些文章中,以及從現(xiàn)場工作的設(shè)計人員的經(jīng)驗中,可以大概看出存儲器系統(tǒng)體系結(jié)構(gòu)今后會怎樣發(fā)展。

  存儲器壁壘

  基本問題很明顯:現(xiàn)代SoC時鐘頻率高達吉赫茲,并且具有多個內(nèi)核,與單通道DDR 相比,每秒會發(fā)出更多的存儲器申請。僅僅如此的話,會有很顯然的方案來解決這一問題。但是,這背后還有重要的精細結(jié)構(gòu),使得這一問題非常復(fù)雜,導(dǎo)致有各種各樣的解決辦法。

  SoC開發(fā)人員關(guān)注的重點從高速時鐘轉(zhuǎn)向多個內(nèi)核 , 這從根本上改變了存儲器問題。不再是要求一個 CPU每秒有更高的兆字節(jié)(MBps) ,現(xiàn)在,我們面臨很多不同的處理器——經(jīng)常是很多不同類型的處理器,都要求同時進行訪問。而且,存儲器訪問的主要模式發(fā)生了變化。科學(xué)和商業(yè)數(shù)據(jù)處理任務(wù)通常涉及到大量的局部訪問,或者更糟糕的是采用相對緊湊的算法很慢的傳送大量的數(shù)據(jù)。配置適度規(guī)模的本地SRAM或者高速緩存,這類任務(wù)的一個CPU對主存儲器的需求并不高。

  芯片設(shè)計人員利用了這種易用性,以便實現(xiàn)更高的密度和能效。相應(yīng)的,以可預(yù)測的順序申請大塊數(shù)據(jù)時,實現(xiàn)了最佳比特率——它允許塊間插。如果SoC不采用這種常用模式,存儲器系統(tǒng)的有效帶寬會降低一個數(shù)量級。

  新的訪問模式

  不好的是,SoC的發(fā)展使得DRAM設(shè)計人員的假設(shè)難以實現(xiàn)。多線程以及軟件設(shè)計新出現(xiàn)的趨勢改變了每一內(nèi)核訪問存儲器的方式。多核處理以及越來越重要的硬件加速意味著很多硬件要競爭使用主存儲器。這些趨勢使得簡單的局部訪問變得復(fù)雜,DRAM帶寬與此有關(guān)。

  多線程意味著,當一個存儲器申請錯過其高速緩存時,CPU不會等待:它開始執(zhí)行不同的線程,其指令和數(shù)據(jù)區(qū)會在與前面線程完全不同的物理存儲區(qū)中。仔細的多路高速緩存設(shè)計有助于解決這一問題,但是最終,連續(xù)DRAM申請仍然很有可能去訪問不相關(guān)的存儲區(qū),即使每一線程都仔細的優(yōu)化了其存儲器組織。相似的,競爭同一DRAM通道的多個內(nèi)核也會擾亂DRAM訪問順序。

  軟件中的變化也會產(chǎn)生影響。表查找和鏈接表處理會對大數(shù)據(jù)結(jié)構(gòu)產(chǎn)生隨機分散存儲器訪問。數(shù)據(jù)包處理和大數(shù)據(jù)算法將這些任務(wù)從控制代碼轉(zhuǎn)移到大批量數(shù)據(jù)處理流程,系統(tǒng)設(shè)計人員不得不專門考慮怎樣高效的處理它們。虛擬化把很多虛擬機放到同一物理內(nèi)核中,使得存儲器數(shù)據(jù)流更加復(fù)雜。

  傳統(tǒng)的解決方案

  這些問題并不是什么新問題——只是變復(fù)雜了。因此,芯片和系統(tǒng)設(shè)計人員有很多成熟的方法來滿足越來越高的基帶帶寬需求,提高DRAM的訪問效率。這些方法包括軟件優(yōu)化、高速緩存以及部署DRAM多個通道等。

  大部分嵌入式系統(tǒng)設(shè)計人員習(xí)慣于首先會想到軟件優(yōu)化。在單線程系統(tǒng)中,軟件在很大程度上過度使用了存儲器通道,能耗較高。但是在多線程、多核系統(tǒng)中,軟件開發(fā)人員對DRAM控制器上的實際事件順序的影響很小。一些經(jīng)驗表明,他們很難改變實際運行時數(shù)據(jù)流模式。DRAM控制器可以使用重新排序和公平算法,編程人員對此并不清楚。

  高速緩存的效率會更高——如果高速緩存足夠大 ,能夠顯著減少DRAM數(shù)據(jù)流。例如,在嵌入式多核實現(xiàn)中,相對較小的L1指令高速緩存與規(guī)模適度的L2一同工作,能夠完全容納所有線程的熱點代碼,有效的減少了對主存儲器的指令獲取數(shù)據(jù)流。相似的,在信號處理應(yīng)用中,把相對較少的數(shù)據(jù)適配到L2或者本地SRAM中,可以去掉濾波器內(nèi)核負載。要產(chǎn)生較大的影響,高速緩存不一定要實際減少DRAM申請總數(shù)量——只需要保護主要申請源不被其他任務(wù)中斷,因此,編程人員能夠優(yōu)化主要任務(wù)。

  當芯片設(shè)計人員無法確定將要運行在SoC中的各種任務(wù)時,則傾向于只要成本允許,提供盡可能多的高速緩存:所有CPU內(nèi)核和加速器的L1高速緩存、大規(guī)模共享L2,以及越來越大的管芯L3。在熱點芯片大會上,從平板電腦級應(yīng)用處理器到大量的服務(wù)器SoC,有很多高速緩存的實例。

  在低端,AMD的Kabini SoC (圖1) 就是很有趣的研究。AMD資深研究員Dan Bouvier介紹了這一芯片,它包括四個Jaguar CPU內(nèi)核,共享了2兆字節(jié)(MB) L2高速緩存,而每個Jaguars有32千字節(jié)(KB)指令和數(shù)據(jù)高速緩存——并不是非傳統(tǒng)的協(xié)議。更驚奇的是芯片的圖形處理器,除了常用的顏色高速緩存以及用于渲染引擎的Z緩沖,還有它自己的L1指令高速緩存和128 KB L2。

  

  圖1.AMD的Kabini SoC目標應(yīng)用是平板電腦,但是仍然采用了大規(guī)模高速緩存,顯著提高了存儲器帶寬。

  而在高端則是IBM的POWER8微處理器(圖2),IBM首席網(wǎng)絡(luò)設(shè)計師Jeff Stuecheli介紹了這一款芯片。這一650 mm2、22 nm芯片包括12個POWER體系結(jié)構(gòu)CPU內(nèi)核,每個都有32 KB指令和64 KB數(shù)據(jù)高速緩存。每個內(nèi)核還有自己512 KB的SRAM L2高速緩存,12 L2共享大容量96 MB的嵌入式DRAM L3。Stuecheli介紹說,三級連續(xù)高速緩存支持每秒230吉字節(jié)(GBps)的存儲器總帶寬。有趣的是,芯片還含有一個小容量會話存儲器。

  

  圖2.IBM的POWER8體系結(jié)構(gòu)在SoC管芯上實現(xiàn)了三級高速緩存。

  在這兩個SoC之間是為微軟的XBOX One提供的多管芯模塊(圖3),微軟的John Snell在大會上對此進行了介紹。模塊含有一個SoC管芯,提供了豐富的存儲器資源。SoC有8個AMD Jaguar內(nèi)核,分成兩組,每組4個。每一內(nèi)核有32 KB的L1指令和數(shù)據(jù)高速緩存。每4個一組的CPU內(nèi)核共享一個2 MB L2。此外,管芯上還有4個8 MB共享SRAM,它們至少為CPU提供了109 GBps的帶寬。

  

  圖3.微軟的XBOX One結(jié)合了大容量高速緩存、本地SRAM以及模塊內(nèi)DRAM,以低成本實現(xiàn)了更大的帶寬。

  使用DRAM

  而XBOX One SoC還揭示了更多的信息。無論您有多大的管芯高速緩存,都無法替代巨大的DRAM帶寬。SoC管芯包括四通道DDR3 DRAM控制器,為模塊中的8 GB DRAM提供了68 GBps峰值帶寬。

  DRAM多通道的概念并不限于游戲系統(tǒng)。幾年前,數(shù)據(jù)包處理SoC就開始提供多個完全獨立的DRAM控制器。但是這種策略帶來了挑戰(zhàn)。存儲器優(yōu)化會更加復(fù)雜,系統(tǒng)設(shè)計人員必須決定哪種數(shù)據(jù)結(jié)構(gòu)映射哪一通道或者控制器。當然,還有可能要求自己的DRAM控制器完成某些高要求任務(wù),在一些嵌入式應(yīng)用中,這些控制器是非常寶貴的。而DRAM多通道會很快用完引腳,用盡I/O功耗預(yù)算。

  即使在FPGA設(shè)計中,引腳數(shù)量也是一個問題,設(shè)計人員應(yīng)能夠非常靈活的重新組織邏輯,選擇較大的封裝。Altera的高級系統(tǒng)開發(fā)套件(圖4)電路板主要用于原型開發(fā),實現(xiàn)寬帶設(shè)計,應(yīng)用領(lǐng)域包括HD視頻處理、7層數(shù)據(jù)包檢查,或者科學(xué)計算等,這是非常有用的套件。

  

  圖4.Altera的高級系統(tǒng)開發(fā)套件極大的滿足了兩片大規(guī)模FPGA的存儲器需求。

  Mark Hoopes是Altera廣播應(yīng)用專家,解釋了電路板應(yīng)提供很大的存儲器帶寬,不需要詳細的知道用戶在兩片大規(guī)模FPGA中實現(xiàn)的某些設(shè)計。因此,設(shè)計電路板時,Hoopes檢查了現(xiàn)有Altera視頻知識產(chǎn)權(quán)(IP)的存儲器使用模式,調(diào)研了外部設(shè)計團隊的需求。

  結(jié)果讓人清醒。Hoopes說:“當您查看每一項功能時,看起來都需要存儲器。但是,當您把功能結(jié)合起來后,其需求非常大。在一個例子中,應(yīng)用程序開發(fā)人員要求為每一片F(xiàn)PGA提供全256位寬DDR3接口以及四通道QDR II SRAM。即使是1932引腳封裝,這也無法實現(xiàn)。因此,設(shè)計人員最終采用了四個SRAM塊以及一個192位DDR3接口。

  Hoopes指出了多個存儲器控制器對于SoC非常重要。他說,IP開發(fā)人員通常能夠熟練的在子系統(tǒng)級優(yōu)化存儲器,甚至能夠提供他們自己經(jīng)過優(yōu)化的DRAM控制器。還可以讓一個DRAM通道專門用于子系統(tǒng),讓其他IP模塊運行子系統(tǒng)設(shè)計人員的優(yōu)化措施。

  未來發(fā)展

  在開發(fā)板上還有另一個有趣的模塊:每片F(xiàn)PGA連接了一個MoSys帶寬引擎。這一芯片含有72 MB的DRAM,組織成256塊來仿真SRAM時序,調(diào)整用于表存儲等局部訪問應(yīng)用。非常獨特的是,芯片使用了一個高速串行接口,而不是常用的DDR或者QDR并行接口。Hoopes強調(diào)說:“接口是我們包含這些組成的一個原因。我們在FPGA中有未使用的收發(fā)器。”實際是,MoSys先使用了它們。

  三種理念——我們都已經(jīng)分別了解了,能夠融合來定義今后的存儲器體系結(jié)構(gòu)。這些理念是大規(guī)模嵌入式存儲器陣列、使用了容錯協(xié)議的高速串行接口,以及會話存儲器。

  MoSys芯片和IBM POWER8體系結(jié)構(gòu)很好的體現(xiàn)了前兩種理念。CPU SoC通過第二個芯片與DRAM通信:Centaur存儲器緩沖。一個POWER8能夠連接8個Centaurs,每個都通過一個專用每秒9.6吉比特(Gbps)的串行通道進行連接。每個Centaur含有16 MB存儲器——用于高速緩存和調(diào)度緩沖,以及四個DDR4 DRAM接口,還有一個非常智能的控制器。IBM將Centaur芯片放在DRAM DIMM上,避免了在系統(tǒng)中跨過8個DDR4連接器。這樣,設(shè)計集中了大量的存儲器,最終明智的采用了快速串行鏈接,由重試協(xié)議進行保護。

  另一熱點芯片實例來自MoSys,在大會上,他們介紹了其下一代Bandwidth Engine 2。根據(jù)所采用的模式,Bandwidth Engine 2通過16個15 Gbps的串行I/O通路連接處理子系統(tǒng)。芯片含有四個存儲器分區(qū),每個包括64塊32K 72位字:在第一代,總共72 MB。很多塊通過智能的重新排序控制器以及大容量片內(nèi)SRAM高速緩存,隱藏了每一比特單元的動態(tài)特性。

  除了Centaur芯片所宣布的特性,Bandwidth Engine 2還在管芯上提供了會話功能。各種版本的芯片提供板上算術(shù)邏輯單元,因此,統(tǒng)計采集、計量,以及原子算法和索引操作等都可以在存儲器中進行,不需要將數(shù)據(jù)實際移出到外部串行鏈路上。內(nèi)部算術(shù)邏輯單元(ALU)很顯然可以用于旗語和鏈接表應(yīng)用。而其他的硬件使得芯片有些專用的特性。MoSys技術(shù)副總裁Michael Miller介紹了四種不同版本的Bandwidth Engine 2,它們具有不同的特性。

  今后的篇章可能不是由CPU設(shè)計師撰寫的,而是取決于低成本商用DRAM供應(yīng)商。Micron技術(shù)公司具體實現(xiàn)了混合立方存儲器(HMC)規(guī)范,開發(fā)原型,宣布了他們的接口合作伙伴。 HMC是一組DRAM塊,堆疊成邏輯管芯,通過一組高速串行通路連接系統(tǒng)的其他部分。 Micron并沒有公開討論邏輯管芯的功能,據(jù)推測,可能含有DRAM控制和緩沖,以仿真SRAM功能,還有可能包括專用會話功能。

  邏輯嵌入在存儲器子系統(tǒng)中這一理念包括了很有趣的含義。能夠訪問大量的邏輯柵極和高速緩存的本地DRAM控制器實際上可以虛擬化去除劣化存儲器帶寬的所有DRAM芯片特性。IBM還在熱點芯片大會上介紹了zEC12大型機體系結(jié)構(gòu),它在硬盤驅(qū)動直至它所控制的DRAM DIMM上應(yīng)用了RAID 5協(xié)議,實際上將DRAM塊用作多塊、并行冗余存儲器系統(tǒng)。相同的原理也可以用于將大塊NAND閃存集成到存儲器系統(tǒng)中,提供了RAID管理分層存儲,可以用作虛擬大容量SRAM。

  毫無疑問對SoC的需求越來越大。因此,串行鏈路和本地存儲器,特別是本地智能化會完全改變我們怎樣思考存儲器體系結(jié)構(gòu)。



關(guān)鍵詞: 存儲器 SOC DRAM

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉