新聞中心

EEPW首頁 > 嵌入式系統(tǒng) > 設(shè)計(jì)應(yīng)用 > 解析Linux新技術(shù)對(duì)象存儲(chǔ)文件系統(tǒng)

解析Linux新技術(shù)對(duì)象存儲(chǔ)文件系統(tǒng)

作者: 時(shí)間:2016-09-12 來源:網(wǎng)絡(luò) 收藏

隨著高性能計(jì)算由傳統(tǒng)的主機(jī)方式向網(wǎng)絡(luò)化集群演變,傳統(tǒng)的基于主機(jī)的存儲(chǔ)架構(gòu)已逐漸向網(wǎng)絡(luò)化存儲(chǔ)發(fā)展,計(jì)算和存儲(chǔ)分離的趨勢(shì)越來越明顯。針對(duì) SAN 和 NAS 的不足,國際上已開展針對(duì) 集群的新型DD的研究,本文重點(diǎn)論述了存儲(chǔ)對(duì)象的架構(gòu)、技術(shù)特點(diǎn),并針對(duì)Lustre 文件系統(tǒng)進(jìn)行了初步測(cè)試,結(jié)果表明文件系統(tǒng)在可擴(kuò)展性、性能、易用性等方面都有顯著提高,隨著網(wǎng)絡(luò)化存儲(chǔ)技術(shù)的不斷成熟,對(duì)象存儲(chǔ)文件系統(tǒng)將成為重要的發(fā)展方向。

本文引用地址:http://m.butianyuan.cn/article/201609/304116.htm

一、引言

高性能計(jì)算已由傳統(tǒng)的主機(jī)方式逐漸向集群方式演變,如TOP500中,1998年只有2臺(tái)系統(tǒng)是集群方式,而到2003年已有208臺(tái)為集群系統(tǒng)。隨著高性能計(jì)算體系結(jié)構(gòu)的發(fā)展變化,傳統(tǒng)的基于主機(jī)的存儲(chǔ)架構(gòu)已成為新的瓶頸,不能滿足集群系統(tǒng)的需求。集群的存儲(chǔ)系統(tǒng)必須有效解決兩個(gè)主要問題:(1)提供共享訪問數(shù)據(jù),便于集群應(yīng)用程序的編寫和存儲(chǔ)的負(fù)載均衡;(2)提供高性能的存儲(chǔ),在I/O級(jí)和數(shù)據(jù)吞吐率方面能滿足成百上千臺(tái)規(guī)模的集群服務(wù)器聚合訪問的需求。目前,網(wǎng)絡(luò)化存儲(chǔ)已成為解決集群系統(tǒng)高性能存儲(chǔ)的有效技術(shù)途徑。

國際上主要有兩類網(wǎng)絡(luò)化存儲(chǔ)架構(gòu),它們是通過命令集來區(qū)分的。第一類是SAN(Storage Area Network)結(jié)構(gòu),它采用SCSI 塊I/O的命令集,通過在磁盤或FC(Fiber Channel)級(jí)的數(shù)據(jù)訪問提供高性能的隨機(jī)I/O和數(shù)據(jù)吞吐率,它具有高帶寬、低延遲的優(yōu)勢(shì),在高性能計(jì)算中占有一席之地,如SGI的CXFS文件系統(tǒng)就是基于SAN實(shí)現(xiàn)高性能文件存儲(chǔ)的,但是由于SAN系統(tǒng)的價(jià)格較高,且可擴(kuò)展性較差,已不能滿足成千上萬個(gè)CPU規(guī)模的系統(tǒng)。第二類是NAS(Network Attached Storage)結(jié)構(gòu),它采用NFS或CIFS命令集訪問數(shù)據(jù),以文件為傳輸協(xié)議,通過TCP/IP實(shí)現(xiàn)網(wǎng)絡(luò)化存儲(chǔ),可擴(kuò)展性好、價(jià)格便宜、用戶易管理,如目前在集群計(jì)算中應(yīng)用較多的NFS文件系統(tǒng),但由于NAS的協(xié)議開銷高、帶寬低、延遲大,不利于在高性能集群中應(yīng)用。

針對(duì)集群對(duì)存儲(chǔ)系統(tǒng)高性能和數(shù)據(jù)共享的需求,國外已開始研究全新的存儲(chǔ)架構(gòu)和新型文件系統(tǒng),希望能有效結(jié)合SAN和NAS系統(tǒng)的優(yōu)點(diǎn),支持直接訪問磁盤以提高性能,通過共享的文件和元數(shù)據(jù)以簡(jiǎn)化管理,目前對(duì)象存儲(chǔ)文件系統(tǒng)已成為L(zhǎng)inux集群系統(tǒng)高性能文件系統(tǒng)的研究熱點(diǎn),如Cluster File Systems公司的Lustre、Panasas公司的ActiveScale文件系統(tǒng)等。Lustre文件系統(tǒng)采用基于對(duì)象存儲(chǔ)技術(shù),它來源于卡耐基梅隆大學(xué)的Coda項(xiàng)目研究工作,2003年12月發(fā)布了Lustre 1.0版,預(yù)計(jì)在2005年將發(fā)布2.0版。Lustre在美國能源部(U.S.Department of Energy:DOE)、Lawrence Livermore 國家實(shí)驗(yàn)室,Los Alamos國家實(shí)驗(yàn)室,Sandia 國家實(shí)驗(yàn)室,Pacific Northwest國家實(shí)驗(yàn)室的高性能計(jì)算系統(tǒng)中已得到了初步的應(yīng)用,IBM正在研制的Blue Gene系統(tǒng)也將采用Lustre文件系統(tǒng)實(shí)現(xiàn)其高性能存儲(chǔ)。ActiveScale文件系統(tǒng)技術(shù)來源于卡耐基梅隆大學(xué)的Dr. Garth Gibson,最早是由DARPA支持的NASD(Network Attached Secure Disks)項(xiàng)目,目前已是業(yè)界比較有影響力的對(duì)象存儲(chǔ)文件系統(tǒng),榮獲了ComputerWorld 2004年創(chuàng)新技術(shù)獎(jiǎng)。

二、對(duì)象存儲(chǔ)文件系統(tǒng)

2.1 對(duì)象存儲(chǔ)文件系統(tǒng)架構(gòu)

對(duì)象存儲(chǔ)文件系統(tǒng)的核心是將數(shù)據(jù)通路(數(shù)據(jù)讀或?qū)?和控制通路(元數(shù)據(jù))分離,并且基于對(duì)象存儲(chǔ)設(shè)備(Object-based Storage Device,OSD)構(gòu)建存儲(chǔ)系統(tǒng),每個(gè)對(duì)象存儲(chǔ)設(shè)備具有一定的智能,能夠自動(dòng)管理其上的數(shù)據(jù)分布,對(duì)象存儲(chǔ)文件系統(tǒng)通常有以下幾部分組成。

1、對(duì)象

對(duì)象是系統(tǒng)中數(shù)據(jù)存儲(chǔ)的基本單位,一個(gè)對(duì)象實(shí)際上就是文件的數(shù)據(jù)和一組屬性的組合,這些屬性可以定義基于文件的RAID參數(shù)、數(shù)據(jù)分布和服務(wù)質(zhì)量等,而傳統(tǒng)的存儲(chǔ)系統(tǒng)中用文件或塊作為基本的存儲(chǔ)單位,在塊存儲(chǔ)系統(tǒng)中還需要始終追蹤系統(tǒng)中每個(gè)塊的屬性,對(duì)象通過與存儲(chǔ)系統(tǒng)通信維護(hù)自己的屬性。在存儲(chǔ)設(shè)備中,所有對(duì)象都有一個(gè)對(duì)象標(biāo)識(shí),通過對(duì)象標(biāo)識(shí)OSD命令訪問該對(duì)象。通常有多種類型的對(duì)象,存儲(chǔ)設(shè)備上的根對(duì)象標(biāo)識(shí)存儲(chǔ)設(shè)備和該設(shè)備的各種屬性,組對(duì)象是存儲(chǔ)設(shè)備上共享資源管理策略的對(duì)象集合等。

2、對(duì)象存儲(chǔ)設(shè)備

對(duì)象存儲(chǔ)設(shè)備具有一定的智能,它有自己的CPU、內(nèi)存、網(wǎng)絡(luò)和磁盤系統(tǒng),目前國際上通常采用刀片式結(jié)構(gòu)實(shí)現(xiàn)對(duì)象存儲(chǔ)設(shè)備。OSD提供三個(gè)主要功能:

(1) 數(shù)據(jù)存儲(chǔ)。OSD管理對(duì)象數(shù)據(jù),并將它們放置在標(biāo)準(zhǔn)的磁盤系統(tǒng)上,OSD不提供塊接口訪問方式,Client請(qǐng)求數(shù)據(jù)時(shí)用對(duì)象ID、偏移進(jìn)行數(shù)據(jù)讀寫。

(2) 智能分布。OSD用其自身的CPU和內(nèi)存優(yōu)化數(shù)據(jù)分布,并支持?jǐn)?shù)據(jù)的預(yù)取。由于OSD可以智能地支持對(duì)象的預(yù)取,從而可以優(yōu)化磁盤的性能。

(3) 每個(gè)對(duì)象元數(shù)據(jù)的管理。OSD管理存儲(chǔ)在其上對(duì)象的元數(shù)據(jù),該元數(shù)據(jù)與傳統(tǒng)的inode元數(shù)據(jù)相似,通常包括對(duì)象的數(shù)據(jù)塊和對(duì)象的長(zhǎng)度。而在傳統(tǒng)的NAS系統(tǒng)中,這些元數(shù)據(jù)是由文件服務(wù)器維護(hù)的,對(duì)象存儲(chǔ)架構(gòu)將系統(tǒng)中主要的元數(shù)據(jù)管理工作由OSD來完成,降低了Client的開銷。

3、元數(shù)據(jù)服務(wù)器(Metadata Server,MDS)

MDS控制Client與OSD對(duì)象的交互,主要提供以下幾個(gè)功能:

(1) 對(duì)象存儲(chǔ)訪問。MDS構(gòu)造、管理描述每個(gè)文件分布的視圖,允許Client直接訪問對(duì)象。MDS為Client提供訪問該文件所含對(duì)象的能力,OSD在接收到每個(gè)請(qǐng)求時(shí)將先驗(yàn)證該能力,然后才可以訪問。

(2) 文件和目錄訪問管理。MDS在存儲(chǔ)系統(tǒng)上構(gòu)建一個(gè)文件結(jié)構(gòu),包括限額控制、目錄和文件的創(chuàng)建和刪除、訪問控制等。

(3) Client Cache一致性。為了提高Client性能,在對(duì)象存儲(chǔ)文件系統(tǒng)設(shè)計(jì)時(shí)通常支持Client方的Cache。由于引入Client方的Cache,帶來了Cache一致性問題,MDS支持基于Client的文件Cache,當(dāng)Cache的文件發(fā)生改變時(shí),將通知Client刷新Cache,從而防止Cache不一致引發(fā)的問題。

4、對(duì)象存儲(chǔ)文件系統(tǒng)的Client

為了有效支持Client支持訪問OSD上的對(duì)象,需要在計(jì)算結(jié)點(diǎn)實(shí)現(xiàn)對(duì)象存儲(chǔ)文件系統(tǒng)的Client,通常提供POSIX文件系統(tǒng)接口,允許應(yīng)用程序像執(zhí)行標(biāo)準(zhǔn)的文件系統(tǒng)操作一樣。

2.2 對(duì)象存儲(chǔ)文件系統(tǒng)的關(guān)鍵技術(shù)

1、分布元數(shù)據(jù)傳統(tǒng)的存儲(chǔ)結(jié)構(gòu)元數(shù)據(jù)服務(wù)器通常提供兩個(gè)主要功能。(1)為計(jì)算結(jié)點(diǎn)提供一個(gè)存儲(chǔ)數(shù)據(jù)的邏輯視圖(Virtual File System,VFS層),文件名列表及目錄結(jié)構(gòu)。(2)組織物理存儲(chǔ)介質(zhì)的數(shù)據(jù)分布(inode層)。對(duì)象存儲(chǔ)結(jié)構(gòu)將存儲(chǔ)數(shù)據(jù)的邏輯視圖與物理視圖分開,并將負(fù)載分布,避免元數(shù)據(jù)服務(wù)器引起的瓶頸(如NAS系統(tǒng))。元數(shù)據(jù)的VFS部分通常是元數(shù)據(jù)服務(wù)器的10%的負(fù)載,剩下的90%工作(inode部分)是在存儲(chǔ)介質(zhì)塊的數(shù)據(jù)物理分布上完成的。在對(duì)象存儲(chǔ)結(jié)構(gòu),inode工作分布到每個(gè)智能化的OSD,每個(gè)OSD負(fù)責(zé)管理數(shù)據(jù)分布和檢索,這樣90%的元數(shù)據(jù)管理工作分布到智能的存儲(chǔ)設(shè)備,從而提高了系統(tǒng)元數(shù)據(jù)管理的性能。另外,分布的元數(shù)據(jù)管理,在增加更多的OSD到系統(tǒng)中時(shí),可以同時(shí)增加元數(shù)據(jù)的性能和系統(tǒng)存儲(chǔ)容量。


上一頁 1 2 3 下一頁

評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉