磁陣及LVM

l磁陣及LVM
l瞭解磁陣並使用LVM對其進行管理
l磁陣的定義及作用
l磁陣raid類型
l常用磁陣設備及操作
lLVM(Logical Volume Manager)介紹
lLVM管理(結合實例)
 
 
l磁陣的定義及作用
l廉價且具有冗餘(重複配置)能力的磁盤陣列,以數組方式來作磁盤組,配合數據分散排列的設計,提升數據的安全性。磁盤陣列是由磁盤組成的一個容量巨大的磁盤組。
l由於數據分散存儲在各個磁盤中,這樣在訪問數據時減少磁盤I/O競爭,提高了數據傳輸率;
l由於採取了數據容錯機制,對於某個磁盤硬件故障可以通過校驗數據進行恢復,如Raid5的奇偶校驗,另外甚至是磁盤的相互鏡像備份,如Raid1,提高了安全性
l磁陣raid類型

lRaid0
l將多個磁盤合併成一個大磁盤,不具備冗餘,並行I/O,速度最快;存取數據時,以磁盤個數進行分段,並行同時寫入這次磁盤,所以速度最快;由於沒有冗餘,若某磁盤損壞將導致所有數據無法使用。  
 
                                                       
l
l1、將磁盤先分成等量的區塊,文件寫入時,該文件會依據塊的大小切割好,之後依次寫入各個磁盤中,比如有2個磁盤,當100M的文件寫入時,那麼每塊磁盤寫入50M
l2、越多塊磁盤組成的RAID0性能將越好,因爲每塊磁盤只負責文件數據的一部分(文件大小/磁盤數),同時磁盤總容量也相應的增加了;
l3、存在數據風險,若其中某塊磁盤損毀,那麼文件數據將缺失一部分,該文件就掛了,由於所有文件都如此存儲,加入某塊磁盤掛了,那麼RAID上的所有數據將丟失;
l4、如果使用不同容量磁盤組成RAID0,數據依次寫入,那麼小容量的磁盤用完後,剩餘的數據將寫入大容量磁盤的多餘空間中,這樣性能將下降。
l
lRaid1
l兩組相同的磁盤系統互爲映像,某塊磁盤的損壞將不影響使用,最安全但速度不高;在主備磁盤上同時存放數據,當主盤故障時備盤代替工作;磁盤利用率只有50%,利用率低下,成本最高;
l
l1、若不以相同磁盤來組成,那麼總容量將以最小的磁盤爲準
l2、數據寫入RAID時分別寫入各個磁盤中,因此寫入性能將變得很差,加入使用了磁盤整列卡,則由其來完成複製工作而非系統I/O,這樣性能還OK,但如果是使用軟件磁盤陣列(有操作系統仿真RAID),性能將很差;
l3、由於使用的相同組磁盤進行全量的備份,所以硬件消耗較嚴重,實際大小隻用了總容量的一半;
l
lRaid10Raid01
l結合了raid0raid1的標準而成,優點是擁有了raid0的速度和raid1的可靠性,但磁盤利用率低下
l1RAID01將磁盤組成RAID0,再將RAID0組成RAID1;
l2RAID10將磁盤組成RAID1,在將RAD1組成RAID0
l
lRaid3
l將數據條塊化分佈於不同的硬盤上,使用簡單的奇偶校驗(同raid2的區別),並用單塊磁盤存放奇偶校驗信息。如果一塊磁盤失效,奇偶盤及其他數據盤可以重新產生數據;如果奇偶盤失效則不影響數據使用。
l
lRaid5
l不單獨指定的奇偶盤,而是把數據和相對應的奇偶校驗信息存儲到組成RAID5的各個磁盤上,並且奇偶校驗信息和相對應的數據分別存儲於不同的磁盤上。當RAID5的一個磁盤數據發生損壞後,利用剩下的數據和相應的奇偶校驗信息去恢復被損壞的數據。
l
l1、至少3塊磁盤組成,寫入的模式類似於RAID0,但在每次寫入過程中,將在每個磁盤上加入校驗記錄,其會記錄其他磁盤的備份數據,當有磁盤損毀時候進行恢復;例如有3塊磁盤ABC組成raid5,所有盤的同一位置的塊組成一個條帶,在寫入數據時就寫入到該條帶的3個塊中,其中1個塊存放了校驗數據,其作用是,通過AB\BC\AC上的校驗碼來推算出另外塊上的數據,那麼raid由所有的條帶組成,而每個條帶都有1個校驗塊,這樣所有的校驗塊加起來就要耗盡1塊磁盤的容量,故Raid5的真正使用的磁盤數量爲:n-1,實際可用容量爲:總容量*(n-1);
l2、讀取性能還OK,於RAID0差不多,但寫入時由於存在生成校驗記錄的計算過程可能導致性能下降,如果使用了磁盤整列卡還OK,但若是軟件磁盤陣列(耗費CPU來完成校驗記錄的計算),那麼性能無法保障;
l3、熱備盤相當於在Raid中做了個備份了,如raid裏其中1塊硬盤壞了是允許的並可以修改,但如果2塊以上或更多盤壞了則不行,但若有了熱備盤就會代替相應壞盤;
l常用磁陣設備及操作
l結合我們的測試環境來了解一下磁陣同單板的連接方式(光纖連接):
l
l舉例常用的OceanStor S3900系列,操作流程如下(參見文檔 
l
l執行完OcenStor的操作配置後,檢查單板同磁陣的連接狀態,root用戶登錄單板,在目錄/sys/class/fc_host中,其中有hostx的目錄,進入可查看到以”port_”開頭的幾個文件,如下:
lport_id
lport_name (光纖口名稱,內容同fabric_name)
lport_state(狀態爲Online表示成功)
lport_type
lATAE背板上有2塊卡就會有2host*的目錄,所以我們在fc_host目錄下會看到host1host2
l
l執行命令lsscsifdisk -l可查看到映射到單板上顯示的物理磁盤,如下:
llinux:~ #lsscsi
l[0:0:0:0]    disk    SEAGATE  ST973402SS       S229  -      
l[0:0:1:0]    disk    SEAGATE  ST973402SS       S229  -      
l[0:1:0:0]    disk    LSILOGIC Logical Volume   3000  /dev/sda
l[5:0:0:0]    disk    up       updisk          1     /dev/sdb
l[5:0:0:1]    disk    up       updisk          1     /dev/sdc
l[5:0:0:2]    disk    up       updisk          1     /dev/sdd
l[5:0:0:3]    disk    up       updisk          1     /dev/sde
l[5:0:0:4]    disk    up       updisk          1     /dev/sdf
l其中 sdbsdf就是在oceanstor上劃分的各個LUN映射到單板上所產生的
l
l在通過USM的“註冊主機”安裝過程中來安裝UltraPath軟件,安裝完後rpm –qa |grepUltraPath 檢查確認
l至此,磁陣同單板設備的連接已OK
 
 
lLVM介紹
l全稱Logical Volume Manager(邏輯盤卷管理),在使用linux系統時常會遇到不知道如何正確的劃分分區大小,在一些分區空間耗盡時不知如何擴展,或者即使擴展也需重啓硬件導致影響到系統運行,而LVM就是可方便靈活的擴展壓縮分區並且在系統運行情況使其生效。
l一種磁盤分區管理機制,是建立在硬盤和分區之上的邏輯概念,可靈活有效管理磁盤分區,可將多個磁盤分區整合爲一個邏輯卷組(VG),又可在邏輯卷組中劃分多個邏輯卷(LV),並在LV上創建文件系統;也可調整邏輯卷組的大小,並給卷組根據業務需要重新命名,如vgora(存放所有數據庫系統表空間對應的邏輯卷)
l
l名詞說明
lPV (物理卷,即硬盤分區,如上述的sdb -sdf
lVG(卷組,可由1或多個pv所組成)
lLV (邏輯卷,基於某個卷組進行創建,LV上可建文件系統)
lPE physicalextent,物理捲上可被LVM尋址的最小基本單位)
lLE logicalextent,邏輯捲上可被LVM尋址的最小基本單位)
lPE LE是相同的且一一對應,對應關 系圖如下:
l從上可看出,VG可由多個PV組成,而PV中的PELV中的LE一一進行對應
l
l磁盤分區、卷組、邏輯卷和文件系統的邏輯關係如下圖:
lLVM管理(結合實例)
l在講述LVM管理前先結合U09版本的安裝說一下如何進行規劃和操作
l要對LVM進行管理,首先檢查LVM軟件是否安裝,通常通過USM自動化安裝即可,命令rpm –qa|greplvm檢查確認
l
llvm創建過程,流程如下:
l
l1pvcreate /dev/sda  整個磁盤創建物理卷
l       pvcreate /dev/sdb1  某個磁盤分區上創建物理卷
l       pvscan  物理卷掃描
l2vgcreatevgora /dev/sda   在磁盤sda上創建卷組vgora
l       vgextendvgora /dev/sdb1  添加磁盤分區sdb1到卷組vgora
l       vgreducevgora /dev/sdb1  刪除磁盤分區sdb1
l       vgscan 卷組掃描
l       vgdisplay 查看卷組詳細信息
l3lvcreate -L 0.1G -nlvspfile /dev/vgora  
l       卷組vgora上創建lvspfile
l       lvremove /dev/vgora/lvspfile  刪除lvspfile
l       lvextend -L 12G /dev/vgora/lvspfile  lvspfile大小擴展至12G
l       lvextend -L +1G /dev/vgora/lvspfile  lvspfile大小增加1G
l       lvdisplay  查看邏輯卷詳細信息
l
l4mknod /dev/raw/raw1 c 162 1  創建裸設備文件
l       raw /dev/raw/raw1   /dev/vgora/lvspfile  
l       創建裸設備文件同LV的鏈接
l5mkfs -t reiserfs /dev/vgora/lv_archive  創建文件系統
l       mount -treiserfs /dev/vgora/lv_archive  /home/root/direct掛載文件系統
l       unmount /dev/vgora/lv_archive 卸載文件系統
l上述步驟24,我們通常通過USM來完成,USM在劃分時配置如下圖:
l
l上圖中創建vg分別爲vgoravggroup,對應pv分別爲/dev/sdb,/dev/sdc, PE大小爲4M
l注意:同1個卷組中所有PV上的PE大小必須相同
l
l創建LVvgora-lvspfile,大小爲30M,文件系統類型爲RAWRAW設備文件名爲/dev/raw/raw1,才用手動bind
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章