軟RAID創建及管理命令mdadm詳解

軟RAID創建及管理命令mdadm詳解
一、創建模式
選項:-C
專用選項:
-l 級別
-n 設備個數
-a {yes|no} 自動爲其創建設備文件
-c 指定數據塊大小(chunk)
-x 指定空閒盤(熱備磁盤)個數,空閒盤(熱備磁盤)能在工作盤損壞後自動頂替
注意:創建陣列時,陣列所需磁盤數爲-n參數和-x參數的個數和
項目實踐:
創建RAID1
mdadm -Cv /dev/md0 -a yes -n 2 -l 1 /dev/sda/ /dev/sdb

示例:
1、創建raid0:
1.1 創建raid
mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2}
注意:用於創建raid的磁盤分區類型需爲fd
1.2 格式化:
mkfs.ext4 /dev/md0
注意:在格式化時,可以指定-E選項下的stride參數指定條帶是塊大小的多少倍,有在一定程度上提高軟RAID性能,如塊默認大小爲4k,而條帶大小默認爲64k,則stride爲16,這樣就避免了RAID每次存取數據時都去計算條帶大小,如:
mkfs.ext4 -E stride=16 -b 4096 /dev/md0
其中stride=chunk/block,爲2的n次方

2、創建raid1:
2.1 創建raid
[root@localhost ~]# mdadm -C /dev/md1 -a yes -n 2 -l 1 /dev/sdb{5,6}
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
注意:這個提示是說軟raid不能用作啓動分區。
2.2 格式化:
[root@localhost ~]# mkfs.ext4 /dev/md1

3、創建raid5:
由於沒有磁盤空間,我將原來做raid1的測試磁盤全部刪除後重新建立四個分區用於raid5測試,分別爲sdb5-8
3.1 創建raid5
[root@localhost ~]# mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb{5,6,7}
mdadm: /dev/sdb5 appears to be part of a raid array:
level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013
mdadm: /dev/sdb6 appears to be part of a raid array:
level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013
mdadm: /dev/sdb7 appears to be part of a raid array:
level=raid1 devices=2 ctime=Sun Jul 14 09:14:25 2013
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
注意:由於我的分區剛纔在raid1上使用過,因此有此提示。
3.2 格式化:
[root@localhost ~]# mkfs.ext4 /dev/md2
3.3 增加熱備磁盤:
[root@localhost ~]# mdadm /dev/md2 -a /dev/sdb8
4、查看md狀態:

4.1 查看RAID陣列的詳細信息:
選項: -D = --detail
mdadm -D /dev/md# 查看指定RAID設備的詳細信息
4.2 查看raid狀態
[root@localhost ~]# cat /proc/mdstat
Personalities : [raid0] [raid1]
md0 : active raid0 sdb2[1] sdb1[0]
4206592 blocks super 1.2 512k chunks
md1 : active raid1 sdb6[1] sdb5[0]
2103447 blocks super 1.2 [2/2] [UU]
unused devices: <none>
注意:在創建raid前,應該先查看磁盤是否被識別,如果內核還爲識別,創建Raid時會報錯:
cat /proc/partitions
如果沒有被識別,可以執行命令:
kpartx /dev/sdb或者partprobe/dev/sdb

二、管理模式

選項:-a(--add),-d(--del),-r(--remove),-f(--fail)
1、模擬損壞:
mdadm /dev/md1 -f /dev/sdb5
2、移除損壞的磁盤:
mdadm /dev/md1 -r /dev/sdb5
3、添加新的硬盤到已有陣列:
mdadm /dev/md1 -a /dev/sdb7
注意:
3.1、新增加的硬盤需要與原硬盤大小一致
3.2、如果原有陣列缺少工作磁盤(如raid1只有一塊在工作,raid5只有2塊在工作),這時新增加的磁盤直接變爲工作磁盤,如果原有陣列工作正常,則新增加的磁盤爲熱備磁盤。
4、停止陣列:

選項:-S = --stop

mdadm -S /dev/md1

三、監控模式
選項:-F
不常用,不做詳細說明。

四、增長模式,用於增加磁盤,爲陣列擴容:
選項:-G
示例,將上述raid5的熱備磁盤增加到陣列工作磁盤中

[root@localhost ~]# mdadm -G /dev/md2 -n 4
注意:-n 4 表示使用四塊工作磁盤
再次使用-D選項查看陣列詳細信息如下:
[root@localhost ~]# mdadm -D /dev/md2
……此處略掉部分信息……
Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
3 8 23 2 active sync /dev/sdb7
4 8 24 3 active sync /dev/sdb8

五、裝配模式,軟RAID是基於系統的,當原系統損壞了,需要重新裝配RAID

選項:-A
示例:將上述已經停止的陣列重新裝配:

mdadm -A /dev/md1 /dev/sdb5 /dev/sdb6
實現自動裝配:

mdadm運行時會自動檢查/etc/mdadm.conf 文件並嘗試自動裝配,因此第一次配置raid後可以將信息導入到/etc/mdadm.conf 中,命令如下:

[root@localhost ~]# mdadm -Ds >/etc/mdadm.conf

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章