融合NAS和SAN的存儲網(wǎng)絡設計
引言
IT技術的發(fā)展經(jīng)歷三次浪潮:第一次浪潮以處理技術為中心,以處理器的發(fā)展為核心動力,產(chǎn)生了計算機工業(yè),促進了計算機的迅速普及和應用;第二次浪潮以傳輸技術為中心,以網(wǎng)絡的發(fā)展為核心動力。這兩次浪潮極大地加速了信息數(shù)字化進程,使得越來越多的人類信息活動轉變?yōu)閿?shù)字形式,從而導致數(shù)字化信息爆炸性地增長,進而引發(fā)IT技術的第三次發(fā)展浪潮:存儲技術浪潮。
存儲技術浪潮的核心是基于網(wǎng)絡的存儲技術。目前,流行的網(wǎng)絡存儲系統(tǒng)主要有兩種:附網(wǎng)存儲(NAS) 和存儲區(qū)域網(wǎng)(SAN)。按照存儲網(wǎng)絡工業(yè)協(xié)會(SNIA) 的定義:NAS 是可以直接聯(lián)到網(wǎng)絡上向用戶提供文件級服務的存儲設備,而SAN 是一種利用Fibre Channel 等互聯(lián)協(xié)議連接起來的可以在服務器和存儲系統(tǒng)之間直接傳送數(shù)據(jù)的網(wǎng)絡。NAS 是一種存儲設備,有其自己簡化的實時操作系統(tǒng),它將硬件和軟件有效地集成在一起,用以提供文件服務,具有良好的共享性、開放性、可擴展性。SAN 技術的存儲設備是用專用網(wǎng)絡相連的,這個網(wǎng)絡是一個基于光纖通道協(xié)議的網(wǎng)絡。 由于光纖通道的存儲網(wǎng)和LAN 分開,性能就很高。在SAN 中,容量擴展、數(shù)據(jù)遷移、數(shù)據(jù)本地備份和遠程容災數(shù)據(jù)備份都比較方便,整個SAN 成為一個統(tǒng)一管理的存儲池( storage pool) 。由于具有這些優(yōu)異的性能,SAN 已成為企業(yè)存儲的重要技術。
但在實際應用中NAS 和SAN 也存在很多缺陷,越來越不能滿足IT技術的快速發(fā)展和數(shù)字化信息爆炸性地增長的需求。如NAS 設備存在如下缺陷: (1) 數(shù)據(jù)的傳輸速度慢,因為NAS只能提供文件級而不能提供塊級的數(shù)據(jù)傳輸; (2) 數(shù)據(jù)備份時性能較低,NAS 在數(shù)據(jù)備份時要占用其大部分網(wǎng)絡帶寬,其它I/O 性能受到影響; (3) 只能管理單個NAS ,很難將位于同一局域網(wǎng)中的多個NAS 集中管理。SAN 也存在以下缺陷: (1) 設備的互操作性較差,不同廠家的設備很難互操作; (2) 構建SAN成本高,目前只有實力較大的企業(yè)構建自己的SAN; (3) 管理和維護成本高,企業(yè)需要花錢培訓專門的管理和維護人員;(4) SAN 只能提供存儲空間共享而不能提供異構環(huán)境下的文件共享。
針對NAS 和SAN 的優(yōu)缺點,目前出現(xiàn)了多種新的網(wǎng)絡存儲技術, 如: NAS Gateway (NAS head) 、基于IP 的SAN 技術、對象存儲技術。NAS 網(wǎng)關能將SAN 連結到IP 網(wǎng)絡,使IP 網(wǎng)絡用戶能通過NAS 網(wǎng)關直接訪問SAN 中的存儲設備,所以NAS 網(wǎng)關具有以下優(yōu)點:能使NAS 和SAN 互連在同一LAN中,突破了FC 拓撲的限制,允許FC 設備在IP 網(wǎng)絡使用;減少了光纖設備的訪問成本,允許訪問未有充分利用的SAN 存儲空間?;贗P 的SAN 互連技術主要包括: FCIP( IP tunneling) 、iFCP、iSCSI、Infiniband、mFCP ,其代表技術是iSCSI 技術。iSCSI技術原理是將SCSI 協(xié)議映射到TCP/ IP之上,即將主機的SCSI 命令封裝成TCP/ IP 數(shù)據(jù)包,在IP 網(wǎng)絡上傳輸,到達目的節(jié)點后,再恢復成封裝前的SCSI 命令,從而實現(xiàn)SCSI 命令在IP網(wǎng)絡上的直接、透明傳輸,使訪問遠程的SCSI 盤可以像本地的硬盤一樣方便。 存儲對象具有文件和塊二者的優(yōu)點:象數(shù)據(jù)塊一樣在存儲設備上被直接訪問;通過一個對象接口,能象文件一樣,在不同操作系統(tǒng)平臺上實現(xiàn)數(shù)據(jù)共享。NAS Gateway 雖實現(xiàn)了NAS 和SAN 在IP 的融合,但不是真正的融合,因為它不能將NAS 設備和SAN 設備融合起來向用戶提供統(tǒng)一的存儲池,用戶也只能以文件I/O的方式訪問存儲設備。對象存儲雖具有NAS 和SAN 的優(yōu)點,但需要設計專門的對象存儲接口,需要對現(xiàn)有的文件系統(tǒng)進行修改,這阻礙了它的進一步普及推廣。
本文提出并實現(xiàn)了一種在IP 協(xié)議下融合iSCSI、NAS、SAN 的統(tǒng)一存儲網(wǎng)絡(簡稱USN) 。在USN 中,NAS 設備、iSCSI設備和SAN 設備并存,用戶可以塊I/O 的方式訪問USN 中的iSCSI 設備和SAN 存儲設備,也可以文件I/O 方式訪問USN 中的NAS 存儲設備和SAN 存儲設備,整個USN 是一個統(tǒng)一的存儲池。并且,USN 能同時提供服務器通道和附網(wǎng)高速通道向客戶機提供數(shù)據(jù),減少了服務器瓶頸,提高系統(tǒng)的I/O 速度。USN 既有NAS 的優(yōu)點(低成本、開放性、文件共享) ,又有SAN 的優(yōu)點(高性能、高擴展性) 。USN 同NAS Gateway(NAS head) 技術、基于IP 的SAN 技術、對象存儲技術相比具有明顯的優(yōu)勢。
USN總體結構
USN 系統(tǒng)的硬件結構如圖1 所示。USN 由NAS 設備、iSCSI設備和SAN 設備,以及元數(shù)據(jù)服務器和應用服務器組成。用戶可以文件I/O 的方式訪問USN 中的NAS 設備和經(jīng)過NAS頭訪問SAN 中的存儲設備,也可以塊I/O 的方式訪問USN 中的iSCSI 設備和SAN 中的存儲設備。USN 同時向用戶提供服務器通道和附網(wǎng)高速通道,對于元數(shù)據(jù)和小數(shù)據(jù)請求都經(jīng)過服務器通道完成,對于大數(shù)據(jù)請求則經(jīng)過附網(wǎng)高速通道完成,這樣大大提高整個系統(tǒng)的I/O 速度,減少服務器瓶頸。整個USN 是用基于IP 的技術構建,可以兼容現(xiàn)有的存儲系統(tǒng),添加和刪除存儲設備都很方便。所以,整個系統(tǒng)的性能、擴展性都很好。USN 真正實現(xiàn)了NAS 和SAN 的統(tǒng)一,即同一存儲網(wǎng)絡中既有NAS 設備,又有SAN 結構;實現(xiàn)文件I/ O 和塊I/O 的統(tǒng)一,即用戶可以文件I/O 方式(文件為單位) 也可以塊I/O方式(塊為單位) 訪問USN 中的設備;實現(xiàn)了文件協(xié)議和塊協(xié)議在TCP/ IP 協(xié)議上的統(tǒng)一,用戶可以NFS(Unix 用戶) 和CIFS(Windows 用戶) 訪問USN ,也可以SCSI(iSCSI 用戶) 訪問USN。
圖2 是USN 的軟件結構圖,其中GMPFS 是全局多協(xié)議文件系統(tǒng),位于USN 系統(tǒng)中的各個應用服務器上,它支持使用CIFS 協(xié)議的Windows 用戶對USN 的訪問,支持使用NFS 協(xié)議的UNIX用戶對USN 的訪問,也支持使用iSCSI 協(xié)議的塊協(xié)議用戶對USN 的訪問。GMPFS 通過對目前存儲系統(tǒng)所使用的元 數(shù)據(jù)進行擴展,采用啟發(fā)式的方法,收集用戶應用信息,為用戶提供統(tǒng)一、方便、快捷的存儲訪問接口以及合理的數(shù)據(jù)存儲方案。ASA 是自主存儲代理模塊,它能夠自動地發(fā)現(xiàn)海量存儲系統(tǒng)中存儲設備的種類和可利用的各種資源,自主地對這些存儲設備和資源進行有效的統(tǒng)一管理和優(yōu)化。ASA 根據(jù)應用的不同和應用的具體需求,安排與應用相適應的存儲設備種類、性能以及可靠性和可用性等級等,并為I/ O 請求選擇合適的數(shù)據(jù)通道,使應用得到最優(yōu)的存儲資源分配,從而使整個系統(tǒng)的性能達到最佳。
[!--empirenews.page--]
系統(tǒng)設計
USN 是一個復雜的系統(tǒng),涉及到許多復雜的技術,本文主要論述其核心技術的設計和實現(xiàn),即GMPFS、ASA 和iSCSI 系統(tǒng)的設計與實現(xiàn)。 GMPFS 可以駐留在多種操作系統(tǒng)平臺上(UNIX,Windows ,Linux) ,支持各種協(xié)議用戶的訪問(NFS ,CIFS ,iSCSI) ,為用戶或應用程序提供對網(wǎng)絡存儲系統(tǒng)的數(shù)據(jù)訪問服務。 ASA 將多種存儲技術(這些存儲技術各有所長,也各有所短) 整合為一個統(tǒng)一的海量存儲系統(tǒng),充分發(fā)揮各種存儲技術的優(yōu)勢,使得該存儲系統(tǒng)對特定的應用程序而言服務性能達到最優(yōu),有效地滿足多方面的應用需求。iSCSI 真正的實現(xiàn)了塊I/ O 和文件I/ O 在IP 網(wǎng)絡上的統(tǒng)一,文件協(xié)議和塊協(xié)議在IP 協(xié)議上的統(tǒng)一。
全局多協(xié)議文件系統(tǒng)的設計
GMPFS 保留了分布式文件系統(tǒng)的靈活性和高性能的優(yōu)點,而克服了其在不同I/ O 協(xié)議支持方面的缺陷,能同時支持NFS、CIFS 和iSCSI 協(xié)議用戶的訪問。 GMPFS 在提供文件存取的方法和文件目錄結構的同時,還為每種存儲卷提供特定的存儲模式。 每種存儲模式包含某種文件系統(tǒng)的元數(shù)據(jù)結構,操作接口(文件類型和數(shù)據(jù)塊類型) ,功能函數(shù)集(格式化,檢索等) ,優(yōu)化方法(cache方法和預取等) 和存儲空間分配回收方法及數(shù)據(jù)結構。對于文件卷而言,存儲模式包含實現(xiàn)POSIX語義的操作函數(shù)和文件目錄結構;對于分區(qū)卷而言,存儲模式必須面向特定分區(qū)類型,如NTFS ,ext3。 所有的存儲模式都必須在元數(shù)據(jù)服務器中的ASA 系統(tǒng)中注冊,以便ASA 為用戶的I/O 請求進行通道選擇。
GMPFS的結構如圖3 所示。其中協(xié)議轉換接口主要通過NFS 的擴展程序模塊和samba 模塊的組合對NFS 協(xié)議和CIFS協(xié)議的支持,并通過iSCSI 目標器驅動程序的擴展對iSCSI 協(xié)議的支持。啟發(fā)式數(shù)據(jù)管理接口主要是用啟發(fā)式方法獲得用戶對存儲數(shù)據(jù)的需要,如性能、使用率以及安全性等。GMPFS數(shù)據(jù)組織邏輯界面提供數(shù)據(jù)組織的邏輯視圖,這一點正是針對傳統(tǒng)文件系統(tǒng)文件目錄結構對于海量數(shù)據(jù)難以管理的弱點,在增加元數(shù)據(jù)信息的前提下,通過查詢和檢索,按照用戶需要提供各種類型文件視圖,例如根據(jù)文件創(chuàng)建的用戶和時間進行分類。擴展的文件或卷操作接口、數(shù)據(jù)組織與分配管理、元數(shù)據(jù)組織結構和I/ O 定向器等主要是保證與傳統(tǒng)的文件系統(tǒng)操作語義兼容,實現(xiàn)程序級的數(shù)據(jù)訪問。應用程序無需修改就可以使用USN 系統(tǒng)中的數(shù)據(jù)。提供與元數(shù)據(jù)服務器中的ASA 及存儲資源的接口和通訊,能充分利用ASA 系統(tǒng)所掌握的存儲資源,合理組織數(shù)據(jù),滿足用戶或應用程序對數(shù)據(jù)存儲的多方面、個性化要求。如通過同時提供服務器通道和附網(wǎng)高速通道,改善用戶的I/ O 性能服務,減少服務器瓶頸。
iSCSI系統(tǒng)設計
iSCSI 協(xié)議定義的是SCSI 到TCP/ IP 的映射,即將主機的SCSI 命令封裝成IP 數(shù)據(jù)包,在IP 網(wǎng)絡上傳輸,到達目的節(jié)點后,再恢復成封裝前的SCSI 命令,從而實現(xiàn)SCSI 命令在IP 網(wǎng)絡上的直接、透明傳輸。它整合了現(xiàn)有的存儲協(xié)議SCSI 和主流網(wǎng)絡協(xié)議TCP/ IP 等兩種主流協(xié)議,實現(xiàn)了存儲和網(wǎng)絡的無縫融合。從應用的角度看,iSCSI 一方面通過SCSI 命令的遠程傳送,實現(xiàn)了和遠程存儲設備的命令級交互,使用戶訪問遠程的SCSI 設備像本地的SCSI 設備一樣方便,而且具有高速度;另一方面也可用于改造傳統(tǒng)的NAS、SAN 技術,實現(xiàn)NAS 和SAN 的融合。iSCSI 系統(tǒng)是USN 系統(tǒng)的核心部分之一,iSCSI 的設計實現(xiàn)了基于IP 的數(shù)據(jù)塊訪問機制。
目前iSCSI 的實現(xiàn)方式可以考慮采用以下三種方式:純軟件方式、智能iSCSI 網(wǎng)卡實現(xiàn)方式、iSCSI HBA 卡實現(xiàn)方式。由于我們是設計USN 的原形系統(tǒng),所以只采用純軟件方式,iSCSI HBA 卡方式是下一步產(chǎn)品化我們將實現(xiàn)的目標。iSCSI系統(tǒng)整體設計模型如圖4 所示(不包括管理模塊) 。服務器端(Target) 采用linux 操作系統(tǒng), 客戶端( Initiator) 采用Windows2000。SCSI 微端口驅動在系統(tǒng)中生成一個虛擬的SCSI 磁盤,過濾驅動截獲系統(tǒng)發(fā)給SCSI 磁盤的SCSI 命令,通過核心態(tài)的網(wǎng)絡接口發(fā)給服務器處理。
自主存儲代理系統(tǒng)的設計
自主存儲代理ASA 的一端面對海量存儲系統(tǒng)。目前的存儲系統(tǒng)有DAS(直連存儲) 、NAS、SAN、iSCSI 等,ASA 能夠自動地發(fā)現(xiàn)海量存儲系統(tǒng)中存儲設備的種類和可利用的各種資源,自主地對這些存儲設備和資源進行有效的統(tǒng)一管理和優(yōu)化;根據(jù)應用的不同和應用程序的具體需求,安排與應用程序相適應的存儲設備種類、性能以及可靠性和可用性等級等,使應用程序得到最優(yōu)的存儲資源分配。
ASA 的另一端面對應用程序(GMPFS) 。ASA 通過對目前存儲系統(tǒng)所使用的元數(shù)據(jù)進行擴展,采用啟發(fā)式的方法,收集用戶應用信息,為用戶提供統(tǒng)一、方便、快捷的存儲訪問接口以及合理的數(shù)據(jù)存儲方案;根據(jù)用戶I/O請求所涉及數(shù)據(jù)的屬性,選擇客戶端與存儲設備交互數(shù)據(jù)的通道,即元數(shù)據(jù)(目錄、卷信息等) 和小數(shù)據(jù)I/O請求,選擇服務器通道,對大數(shù)據(jù)I/O請求選擇高速附網(wǎng)通道。大、小數(shù)據(jù)I/O請求由ASA 自主地根據(jù)整個系統(tǒng)的I/O信息量進行調整。ASA 系統(tǒng)結構如圖5 所示。
客戶端與USN交互流程
USN 系統(tǒng)中包括三類用戶:Windows 文件I/O用戶(使用CIFS 協(xié)議) ,Unix 文件I/O用戶(使用NFS 協(xié)議) ,iSCSI 塊I/O用戶(使用iSCSI 協(xié)議) 。用戶在客戶端與USN 系統(tǒng)交互流程與圖6 所示。
塊I/O客戶的具體的數(shù)據(jù)讀寫流程為(如圖6) : (1) 客戶1上的應用程序發(fā)出的塊I/O命令(SCSI 命令) 經(jīng)iSCSI 設備驅動層和TCP/ IP 協(xié)議棧之后,封裝成IP 數(shù)據(jù)包,在IP 網(wǎng)絡上傳輸; (2) 封裝后的SCSI 命令達到USN 服務器之后,經(jīng)解封裝,恢復成封裝前的SCSI 命令,USN 服務器利用這些SCSI 命令對iSCSI 存儲設備發(fā)出塊I/O讀寫請求; (3) 被請求的數(shù)據(jù)塊經(jīng)iSCSI 設備中的iSCSI 層和TCP/ IP 協(xié)議棧封裝成PDU ,iSCSI 設備傳送的PDU 到客戶端可經(jīng)兩個途徑:一種是經(jīng)過服務器轉發(fā),一種是經(jīng)過高速附網(wǎng)通道直接傳到客戶端; (4)PDU 經(jīng)IP 網(wǎng)絡上傳輸返回到客戶1 后,PDU 經(jīng)客戶1 解封裝并由其文件系統(tǒng)組合成文件。
當USN 系統(tǒng)提供File I/O 服務時,其數(shù)據(jù)讀寫過程(如圖6 所示) : (1) 客戶2 (文件I/O) 向USN 服務器發(fā)出文件讀寫請求(其工作方式和傳統(tǒng)的NAS 相同) ; (2)USN 服務器接到客戶端的文件讀寫請求后:一方面,將該I/O 請求發(fā)給對應的NAS設備或NAS 頭,NAS 設備或NAS 頭將所請求數(shù)據(jù)傳給USN 服務器,再經(jīng)USN 服務器傳到客戶端;另一方面USN 服務器不把文件I/O 請求傳到NAS 或NAS 頭,而是將NAS 或NAS 頭的IP 地址傳給客戶端,客戶端通過該IP 地址直接與NAS 或NAS頭進行數(shù)據(jù)交互。
這里的NAS 頭主要是支持FC 協(xié)議的SAN 設備能直接掛到TCP/ IP 網(wǎng)絡,支持NFS/ CIFS 用戶的訪問,NAS 頭也可安裝iSCSI目標器驅動程序支持iSCSI 用戶的訪問。不論是塊I/O請求還是文件I/O請求,都可通過附網(wǎng)高速通道實現(xiàn)客戶端與存儲設備的數(shù)據(jù)交互。
試驗評估
從客戶端對構建USN 的各子存儲系統(tǒng)以及整個USN 進行功能和性能評測,并作進一步的比較。我們從兩個方面對統(tǒng)一存儲網(wǎng)進行測試:功能測試和性能測試。功能測試包括: (1)構建100M及1000M以太網(wǎng)環(huán)境,將iSCSI 存儲設備與服務器連接;在服務器操作系統(tǒng)中安裝iSCSI 軟件包后,使用戶能夠通過網(wǎng)絡獲得iSCSI 存儲設備提供的存儲空間,并能象使用本地硬盤一樣對其進行操作。
本測試項測試服務器端iSCSI 盤安裝、設置、管理和使用等各項功能; (2) iSCSI 存儲設備作為NAS 頭的存儲設備,與NAS 頭組成一個NAS 存儲系統(tǒng),本測試項測試iSCSI 盤在NAS 中的安裝、設置、管理和使用等各項功能; (3) iSCSI 盤與本地盤、FC-RAID 盤構成各種冗余度的RAID ,本測試項測試各種存儲盤在RAID 中的安裝、配置、管理和使用等各項功能; (4) 多個NAS、iSCSI 設備、NAS 頭連接FC-RAID 通過多GMPFS 和ASA 構建成USN 海量存儲系統(tǒng),本項測試測試GMPFS 和ASA 系統(tǒng)在融合NAS、iSCSI 和SAN 的系統(tǒng)中的安裝、配置及使用等各項功能。
性能測試包括:測試在100M和1000M網(wǎng)環(huán)境中不同工作負載下NAS 存儲設備、iSCSI 存儲設備、FC-RAID、本地硬盤以及它們組成的海量USN系統(tǒng)的數(shù)據(jù)傳輸性能:包括單位時間內(nèi)的IO 次數(shù)、一次IO 的平均響應時間、數(shù)據(jù)傳輸率和CPU 利用率。該項測試的主要思想是針對不同的網(wǎng)絡應用環(huán)境,對各種存儲設備和各種傳輸通道進行頻繁的IO 處理,在確定時間內(nèi)統(tǒng)計并計算IO 率、數(shù)傳率、響應時間、CPU 利用率等性能參數(shù),從而得到的各種性能評估。[!--empirenews.page--]
測試環(huán)境
iSCSI 存儲設備:P42.0GHz CPU ,256MB DRAM, IBM DPSS318350 18G硬盤,Redhat Linux 9.0 操作系統(tǒng);LINUX 服務器:Pentium 42.66GHz ( FC2PGA) CPU ,256MB DRAM, 80GB UltraATA/ 1007 ,200rpm硬盤,Redhat Linux 9.0 操作系統(tǒng);WINDOWS服務器端:XEON 3.06GHz CPU ,512M DRAM 內(nèi)存,Smart Array6i (板載) 存儲控制器,Qlogic QLA2300 PCI FC Adapter 光纖適配器,IBM 36。4GB (32P0726) 10Krpm 硬盤,Microsoft Windows2003操作系統(tǒng);FC-RAID:NexStor 4000S ,CPU 600MHZ,512M SDRAM,10 ×ST314680FC 硬盤;普通NAS 存儲設備: P42.66GHz CPU ,512MB DDR ,Maxtor 160G硬盤,Redhat Linux 9.0 操作系統(tǒng)。
網(wǎng)絡連接:iSCSI 設備和普通NAS 設備都使用100M以太網(wǎng)卡Realtek RTL8139 ;Windows 服務器使用1000M 以太網(wǎng)卡HP NC7782 Gigabit Server Adapter ;Linux服務器使用1000M以太網(wǎng)卡。HPNC7782Gigabit Server Adapter。
功能測試
根據(jù)測試流程,功能測試包括三個方面的內(nèi)容: (2) 平臺的統(tǒng)一,即在Windows 下能通過單一目錄樹方式訪問多個存儲節(jié)點,功能與Linux 下的pvfs 相似; (2) 協(xié)議的統(tǒng)一,即通過Windows 的“計算機管理”和Initiator 發(fā)起端(iSCSI 客戶端) 可以管理FC-RAID 和iSCSI Target 及普通的NAS 設備,并利用“動態(tài)磁盤機制”實現(xiàn)多種冗余;設備的統(tǒng)一,即iSCSI Target 通過和initiator 配合,使得該Target 成為NAS 系統(tǒng)中的一個存儲設備。
性能測試
測試內(nèi)容
采用第三方的IOMETER 測試軟件進行的測試。IOMETER是INTEL 公司專門開發(fā)的用于測試系統(tǒng)I/O 性能的測試程序。 它的測試參數(shù)比較全面,能非常全面的反映服務器的I/ O性能。為了說明USN 存儲系統(tǒng)的性能,在相同條件下測試以下項目進行對比分析: (1) 對USN 服務器本地硬盤讀寫性能測試; (2) 100M以太網(wǎng)環(huán)境下FC-RAID 盤讀寫性能測試; (3)100M以太網(wǎng)環(huán)境下遠程iSCSI 盤讀寫性能測試; (4) 100M 以太網(wǎng)環(huán)境下FC-RAID 盤和遠程iSCSI 盤構建的各級RAID 盤的讀寫性能測試; (5) 1000M以太網(wǎng)環(huán)境下遠程iSCSI 盤讀寫性能測試; (6) 100M以太網(wǎng)環(huán)境下USN 系統(tǒng)的讀寫性能測試。
實驗結果比較
本地IDE 硬盤、100M iSCSI 硬盤、1000M iSCSI 硬盤、FC-RAID、FC-RAID 與iSCSI 構成的RAID0 及USN 系統(tǒng)數(shù)據(jù)傳輸率性能比較如圖7 所示。
本地IDE 硬盤、100M iSCSI 硬盤、1000M iSCSI 硬盤、FC-RAID 及FC-RAID 與iSCSI 構成的RAID0 ,以及USN 的IO/ s 性能比較如圖8 所示。
本地IDE 硬盤、100M iSCSI 硬盤、1000M iSCSI 硬盤、FC-RAID及FC-RAID 與iSCSI 構成的RAID0 ,以及USN 的平均響應時間性能比較如圖9 所示。
本地IDE 硬盤、100M iSCSI 硬盤、1000M iSCSI 硬盤、FC-RAID 及FC-RAID 與iSCSI 構成的RAID0 ,以及USN 的CPU 占用率比較如圖10 所示。
實驗結果分析
請求文件或數(shù)據(jù)塊大小對存儲系統(tǒng)性能的影響從圖7、圖8 和圖9 中單條曲線的走勢可以看出,當請求文件或數(shù)據(jù)塊較大時,從目的盤或系統(tǒng)上讀寫數(shù)據(jù)耗費的時間長,通過網(wǎng)絡傳輸?shù)臅r間也相應增加,所以:小包的平均響應時間< 大包的平均響應時間,小包的IOps > 大包的IOps。請求包大時,針對一個請求包所進行的額外操作較請求包小時少,連續(xù)的讀寫所耗費的時間小于小包讀寫所耗費的時間,因此:小包的MBps < 大包的MBps。
服務器端iSCSI 盤的各項性能表現(xiàn)趨勢在100M以太網(wǎng)和千兆以太網(wǎng)環(huán)境中不同請求包大小的情況下符合上述規(guī)律,本地IDE 硬盤、FC-RAID 和USN 系統(tǒng)也符合上述述規(guī)律。
性能分析
從圖7、圖8 和圖9 可以看出, I/O 請求在1k~128kB 時,USN系統(tǒng)的I/O 請求響應速度比本地IDE 硬盤、FC-RAID、100M遠程iSCSI 硬盤和1000M iSCSI 硬盤快的多。 當I/O 請求大于128kB 時,USN 系統(tǒng)的I/O 請求響應速度比FC-RAID 的 I/ O 請求響應速度略慢,比其它存儲子系統(tǒng)的速度快的多,最高速度可達45MB/ s。 其原因是我們在USN 的服務器端除加載了GMPFS(支持使用多種訪問協(xié)議用戶) 和ASA(提供服務器通道和附網(wǎng)高速通道) 的同時,還加載了我們實驗室以前開發(fā)的智能預取、硬盤緩存技術(DCD) 、負載均衡和零拷貝系統(tǒng)或軟件模塊,所以,不論是大I/O 請求還小I/O 請求,都能提供極好的I/O 請求響應性能。 而FC-RAID 由于自身的數(shù)據(jù)校驗等時延等特性,對小的I/O 請求響應速度較慢,對越大的I/O請求響應速度越快。
對于USN 的iSCSI 盤存儲子系統(tǒng),從實驗結果可以看出,當請求數(shù)據(jù)塊較小時,100M網(wǎng)絡環(huán)境下的性能和1000M網(wǎng)絡環(huán)境下的性能差別不明顯,隨著請求塊或文件逐步增大,兩者IOps 和MBps 的差距越來越大。請求數(shù)據(jù)塊為1024K時,僅更換網(wǎng)絡傳輸中的數(shù)據(jù)鏈路層和物理層,從100M 網(wǎng)絡環(huán)境提升到1000M網(wǎng)絡環(huán)境,磁盤數(shù)據(jù)傳輸率得到較大的提高,后者約是前者的3 倍。
從圖10 可以看出,100M的iSCSI 存儲子系統(tǒng)的CPU 占用率最高,原因是在響應用戶的I/O 請求,要求服務器不斷的對iSCSI 的協(xié)議數(shù)據(jù)單元進行封裝和解封裝。 本地的IED 硬盤CPU 占用率最低,USN 系統(tǒng)的服務器端CPU 占用率次之,原因是USN 系統(tǒng)中小的I/O 請求直接經(jīng)過服務器處理,而大的I/O 請求經(jīng)過附網(wǎng)高速通道由存儲設備自身處理。
結論和展望
我們提出、設計和實現(xiàn)的統(tǒng)一存儲網(wǎng)絡系統(tǒng),全部采用IP互聯(lián)設備,價格比光纖通道低得多,在管理軟件的開發(fā)實現(xiàn)上以及系統(tǒng)的使用維護上,都具有多得多的資源和經(jīng)驗。 并且,千兆以太網(wǎng)技術比光纖通道技術發(fā)展迅速,10Gbps 以太網(wǎng)交換機已經(jīng)推出并在市場上熱銷,其性能前景也比光纖通道交換機好得多。 所有這些為統(tǒng)一存儲網(wǎng)絡的產(chǎn)品化打下了堅實的基礎。
目前,我們已經(jīng)從理論、結構和實踐上實現(xiàn)了統(tǒng)一存儲網(wǎng)絡原型系統(tǒng),現(xiàn)在,我們正在開發(fā)和完善多用戶、多功能、多種平臺支持的iSCSI 設備,設計和實現(xiàn)新的安全和高可用文件系統(tǒng),以便為統(tǒng)一存儲網(wǎng)絡系統(tǒng)產(chǎn)品化后能真正為廣大企業(yè),尤其是為廣大中小企業(yè)提供開放性、性能、可展性、性/ 價比都更好的海量存儲系統(tǒng)。