Linux--服務器硬件與RAID磁盤陣列配置實戰(服務器硬件詳解,RAID磁盤陣列,陣列卡介紹與真機配置,構建RAID磁盤陣列)

前言

  • RAID是英文Redundant Array of Independent Disks的縮寫,中文簡稱爲獨立冗餘磁盤陣列。簡單的說,RAID是一種把多塊獨立的硬盤(物理硬盤)按不同的方式組合起來形成一個硬盤組(邏輯硬盤),從而提供比單個硬盤更高的存儲性能和提供數據備份技術。

  • 組成磁盤陣列的不同方式稱爲RAID級別(RAID Levels)。在用戶看起來,組成的磁盤組就像是一個硬盤,用戶可以對它進行分區,格式化等等。總之,對磁盤陣列的操作與單個硬盤一模一樣。不同的是,磁盤陣列的存儲速度要比單個硬盤高很多,而且可以提供自動數據備份。數據備份的功能是在用戶數據一旦發生損壞後,利用備份信息可以使損壞數據得以恢復,從而保障了用戶數據的安全性。

一:服務器硬件組成

1.CPU: 運算/控制
幾由服務器:服務器上有多少個CPU
CPU核數:處理工作任務 核心數越多 並行處理能力越強

2.內存: 數據先存儲到內存(斷電易丟失)
名詞概念:
程序:所有代碼信息構成一個程序
#進程:運行起來的程序
守護進程:一直運行存在的進程
緩存:將數據放入緩存區 加快數據讀取 讀-緩存(cache)
緩衝:將數據放入緩衝區 加快數據寫入 寫-緩衝(buffer)

3.硬盤: 存儲到硬盤(永久存儲)
接口分類:SATA–SCIS–SAS
硬盤轉速:家用級別5400、7200企業級別:10K、15K
換算:1024B=1KB 1024KB=1MB 專業級別換算
---------1000B=1KB 1024KB=1MB 工業級別換算
存儲單位:B-KB-MB-GB-TB-PB-EB…

4.主板: 南橋、北橋

5.電源: 服務供電(冗餘特性)

6.網卡: 實現網絡通訊(可多塊)

7.陳列卡BAID: 提高單塊硬盤的存儲量/提高數據安全性/實現提高數據存儲效率

8.遠程管理卡: 控制服務器啓動/遠程安裝系統

二:RAID磁盤陣列詳解

  • RAID分爲不同的等級,不同等級的RAID均在數據可靠性及讀寫性能上做了不同的權衡。

  • 是Redundant Array of Independent Disks的縮寫,中
    文簡稱爲獨立冗餘磁盤陣列

  • 把多塊獨立的物理硬盤按不同的方式組合起來形成一個硬
    盤組(邏輯硬盤),從而提供比單個硬盤更高的存儲性能
    和提供數據備份技術

  • 組成磁盤陣列的不同方式稱爲RAID級別(RAID Levels)

  • 常用的RAID級別有以下幾種:

    RAID 0

    RAID 1

    RAID 5

    RAID 6

    RAID 1+0

2.1:RAID 0磁盤陣列介紹

  • RAID 0稱爲條帶化存儲(Striping)(相當於Windows中是帶區卷)
  • RAID 0以連續位或字節爲單位進行數據分割,將數據分段存儲於各個硬盤中並進行讀/寫數據,因此有很高的數據傳輸率,但它沒有數據冗餘,因此不能算真正的RAID結構
  • RAID 0連續以位或字節爲單位分割數據,並行讀/寫於多個磁盤上,因此具有很高的數據傳輸率,但它沒有數據冗餘
  • RAID 0只是單純地提高性能,並沒有爲數據的可靠性提供保證,而且其中的一個磁盤失效將影響到所有數據
  • RAID 0不能應用於數據安全性要求高的場合
    在這裏插入圖片描述

2.2:RAID 1磁盤陣列介紹

  • RAID 1稱爲鏡像存儲(mirroring)(相當於Windows中的鏡像卷)
  • 通過磁盤數據鏡像實現數據冗餘,在成對的獨立磁盤上產生互爲備份的數據
  • 當原始數據繁忙時,可直接從鏡像拷貝中讀取數據,因此RAID 1 可以提高讀取性能
  • 因爲數據被同等的寫入成對的磁盤中,所以寫性能比較慢,主要受限於最慢的那塊磁盤
  • RAID 1時磁盤陣列中單位成本最高的,但是提供了很高的數據安全性和可用性。當一個磁盤失效時,系統可以自動切換到鏡像磁盤上讀寫,而不需要重組失效的數據
  • RAID 1是磁盤利用率最低的一個,如果N(偶數)塊硬盤組合成一組鏡像,只能利用其中N/2的容量
    在這裏插入圖片描述

2.3:RAID 5磁盤陣列介紹

  • RAID 5是一種存儲性能,數據安全與存儲成本兼顧的存儲解決方案,可以理解爲是RAID 0和 RAID 1 的這種方案
  • N(N>=3)塊盤組成陣列,一份數據產生N-1個條帶,同時還有一份校驗數據,共N份數據在N塊盤上循環均衡存儲
  • N塊盤同時讀寫,讀性能很高,但由於有校驗機制的問題,寫性能相對不高
  • 磁盤利用率爲(N-1)/N容量,相當於一塊磁盤的容量空間用於存儲奇偶校驗信息
  • 可靠性高,允許壞1塊盤,不影響所有數據
    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-JKr0wQar-1592469780675)(C:\Users\kevin\AppData\Roaming\Typora\typora-user-images\image-20200617200339966.png)]

2.4:RAID 6磁盤陣列介紹

  • RAID 6採用雙重校驗技術,在RAID 5的技術上增加了第二個獨立的奇偶校驗信息塊,兩個獨立的奇偶系統使用不同的算法,即使兩塊磁盤同時失效也不會影響數據的使用,進一步加強了對數據的保護。
  • N(N>=4)塊盤組成陣列,(N-2)/N容量 (相當於2塊磁盤的容量空間用於存儲奇偶校驗信息)
  • RAID 6需要分配給奇偶校驗信息更大的磁盤空間,相對於RAID 5有更大的“寫損失”,因此寫性能較差
    在這裏插入圖片描述

2.5:RAID容錯對比表

  • RAID 1 , RAID 5, RAID 6都具有容錯性,我們做個對比
RAID 1 RAID 5 RAID 6
是否有校驗
保護能力 允許一個設備故障 允許一個設備故障 允許兩個設備故障
寫性能 需寫兩個存儲設備 需寫計算校驗 需雙重寫計算校驗
磁盤利用率 50% N-1/N(N>=3) N-2/N(N>=4)
  • 相對於其他幾種RAID來說,當N>2時,RAID 6的磁盤利用率得到了提高。又因爲允許同時兩塊存儲設備故障,顯然提供了更好的可用性。

2.6:RAID 1+0磁盤陣列介紹

  • RAID 1+0是RAID 1和RAID 0的結合,先做鏡像(1),再做條帶(0)
  • 兼顧了RAID 1的容錯能力與RAID 0的條帶化讀寫數據的優點,性能好,可靠性高。屬於混合型RAID
  • N(偶數,N>=4)塊盤兩兩鏡像後,在組合成一個RAID 0,最多允許所有磁盤基組中的磁盤各損壞一個,但是不允許同一基組中的磁盤同時有壞的。
  • 磁盤的利用率爲N/2
  • N/2塊盤同時寫入數據,N快盤同時讀取數據
  • 類似的混合RAID還有RAID 0+1,二者在讀寫性能上差別不大,但是在安全性上 RAID 1+0 要好於 RAID 0+1
    在這裏插入圖片描述

三:陣列卡介紹

3.1:陣列卡介紹

  • 陣列卡全稱爲磁盤陣列卡,是用來實現RAID 功能的板卡
  • RAID卡一般分爲硬RAID卡和軟RAID卡兩種
  • 通過硬件來實現RAID功能的就是硬RAID,通常是由I/O處理器,硬盤控制器,硬盤連接器和緩存等一些列組件構成
  • 通過軟件並使用CPU的RAID卡我們成爲軟RAID,因爲軟RAID佔用CUP資源比較高,所以絕大部分的服務器設備都使用的硬RAID
  • 不同的RAID卡支持的RAID功能不同,例如支持RAID 0,RAID 1,RAID 5,RAID1+0等
  • RAID卡的第一個重要功能就是他可以達到單個磁盤驅動器的幾倍,幾十倍甚至上百倍的速率,這也是RAID最初想要解決的問題
  • RAID卡的第二個重要功能就是提供容錯能力,現在服務器基本上集成了RAID卡

3.2:RAID卡的接口類型

  • RAID卡的接口指的是支持的接口,目前有IDE 接口,SCSI接口,SATA接口和SAS接口

3.2.1:IDE接口

  • IDE的英文全稱爲“Integrated Drive Electronics”,即“電子集成驅動器”,屬於並行接口。
  • 它是把“硬盤控制器”與“盤體”集成在一起的硬盤驅動器,這樣使得硬盤接口的電纜數目與長度有所減少,從而數據傳輸的可靠性得到增強
  • IDE接口價格低廉,兼容性強
  • 在實際的應用中,這種類型的接口隨着接口技術的不斷髮展已經很少用了,逐漸被後續發展分支出更多類型的硬盤接口所取代。

3.2.2:SCSI接口

  • SCSI 的英文全稱爲“Small Computer System Interface”(小型計算機系統接口),是和IDE完全不同的接口,IDE接口是普通PC的標準接口,而SCSI是一種通用的接口標準,具備與不同類型外部設備進行通信的能力,是一種廣泛應用於小型機上的高速數據傳輸技術
  • SCSI是個多任務接口,設有母線仲裁功能,掛在一個SCSI母線上的多個外部設備可以同時工作,並平等佔有總線
  • SCSI接口可以同步或異步傳輸數據,同步傳輸數據可以達到10M/s,異步傳輸速率可以達到1.5M/s
  • SCSI接口的CPU佔用率低,支持熱插熱拔,但價格較高,因此SCSI硬盤主要用於中,高端工作站中

3.2.3:SATA接口

  • SATA是“Serial ATA”的縮寫,主要用在主板和大量存儲設備之間傳輸數據。擁有這種接口的硬盤又叫串口硬盤,以採用串行方式傳輸數據

  • SATA總線使用了嵌入式時鐘信號,使得其具備更強的糾錯能力。如果發現數據傳輸中的錯誤會自動進行矯正,很大程度上提高了數據傳輸的可靠性,也是一種支持熱拔熱插的接口

3.2.4:SAS接口

  • SAS的英文全稱爲“Serial Attached SCSI”是新一代的SCSI技術,稱爲序列式SCSI
  • SAS可以看做是SATA與SCSI的結合體,是同時發揮兩者的優勢產生的,主要用在周邊零件的數據傳輸上
  • 和SATA硬盤相同,都是採用串行技術以獲得更高的傳輸速度
  • SAS的接口技術可以向下兼容SATA設備

3.3:陣列卡的緩存

  • 緩存(Cache)是RAID卡與外部總線交換數據的場所,是RAID卡電路板上的一塊存儲芯片,與硬盤盤片相比,具有極快的存取速度。RAID卡現將數據傳送到緩存,再經由緩存和外邊數據總線交換數據
  • 緩存的大小與速度是直接關係到RAID卡的實際傳輸速度的重要因素,大緩存能夠大幅度的提高數據命中率從而提高RAID卡整體性能
  • 不同的RAID卡出廠時配備的內存容量不同,一般爲幾兆到數百兆容量不等,主要取決於磁盤陣列產品所應用的範圍

3.4:真機服務器配置

在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
按空格中括號中出現X。點擊OK。

在這裏插入圖片描述
在這裏插入圖片描述
同樣的配置RAID 5,選擇NO read ah
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
退出保存
Ctrl+alt+delete重啓系統
在這裏插入圖片描述
按F11等待進入
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
選擇HARD sevice C
選擇從U盤進行安裝
之後就是跟裝CentOS是一樣的,這裏就不再做闡述了。

四:構建軟RAID磁盤陣列實驗

  • 我們需要用到mdadm工具創建RAID磁盤
  • 因爲我們做的是RAID,所以文件系統格式需要改爲fd
mdadm工具指令基本格式
[root@localhost ~]# mdadm -C -v 目錄 -l級別 -n磁盤數量 設備

常用選項
l		指定級別
C		創建
v		指定目錄
n		磁盤數量
  • 查看RAID級別的兩個方法
第一個方法
cat /proc/mdstat		'//查看狀態'

第二個方法
mdadm -D 目錄		'//查看更詳細信息'

4.1:RAID 0 實驗

  • 需要兩塊磁盤
  • 磁盤分區格式需要改爲fd(raid格式)
1.創建好兩個磁盤分區
   設備 Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    41943039    20970496   fd  Linux raid autodetect

   設備 Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    41943039    20970496   fd  Linux raid autodetect
2.創建RAID0
[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1		'//在/dev/md0目錄下創建RAID 0'
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# cat /proc/mdstat		'//查看raid 第一種方法'
Personalities : [raid0] 
md0 : active raid0 sdc1[1] sdb1[0]
      41908224 blocks super 1.2 512k chunks
      
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md0		'//查看raid 第二種方法'
/dev/md0:
           Version : 1.2
     Creation Time : Mon Nov  4 23:13:21 2019
        Raid Level : raid0
        Array Size : 41908224 (39.97 GiB 42.91 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

   Update Time : Mon Nov  4 23:13:21 2019
         State : clean 
Active Devices : 2

   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

​    Chunk Size : 512K

Consistency Policy : none

​          Name : localhost.localdomain:0  (local to host localhost.localdomain)
​          UUID : e6803bdd:e42b94df:8a0475cd:a1ef6f04
​        Events : 0

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   1       8       33        1      active sync   /dev/sdc1
3.格式化分區
[root@localhost ~]# mkfs.xfs /dev/md0
meta-data=/dev/md0               isize=512    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
4.格式化後並掛載
[root@localhost ~]# mkdir /raid0		'//創建raid0掛載目錄'
[root@localhost ~]# mount /dev/md0 /raid0/		'//將/dev/md0 掛載到/raid0'
[root@localhost ~]# df -hT		'//查看掛載是否成功'
文件系統       類型      容量  已用  可用 已用% 掛載點
/dev/sda2      xfs        20G  3.1G   17G   16% /
devtmpfs       devtmpfs  898M     0  898M    0% /dev
tmpfs          tmpfs     912M     0  912M    0% /dev/shm
tmpfs          tmpfs     912M  9.0M  903M    1% /run
tmpfs          tmpfs     912M     0  912M    0% /sys/fs/cgroup
/dev/sda5      xfs        10G   37M   10G    1% /home
/dev/sda1      xfs       6.0G  174M  5.9G    3% /boot
tmpfs          tmpfs     183M   12K  183M    1% /run/user/42
tmpfs          tmpfs     183M     0  183M    0% /run/user/0
/dev/md0       xfs        40G   33M   40G    1% /raid0

4.2:RAID 1實驗

-x:備用磁盤

1.創建raid1
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdf1		'//創建將sdd1,sde1創建raid1,並將sdf1作爲備用磁盤'
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看狀態信息
[root@localhost ~]# cat /proc/mdstat		'//查看狀態信息'
Personalities : [raid0] [raid1] 
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      [===========>.........]  resync = 59.1% (12402304/20954112) finish=0.6min speed=206292K/sec
      
md0 : active raid0 sdc1[1] sdb1[0]
      41908224 blocks super 1.2 512k chunks
      
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md1		'//查看詳細信息'
/dev/md1:
           Version : 1.2
     Creation Time : Mon Nov  4 23:41:52 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 3
       Persistence : Superblock is persistent

   Update Time : Mon Nov  4 23:43:18 2019
         State : clean, resyncing 
Active Devices : 2

   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

Consistency Policy : resync

 Resync Status : 82% complete

​          Name : localhost.localdomain:1  (local to host localhost.localdomain)
​          UUID : cbd878ef:8ad679a4:2ee73455:99f429de
​        Events : 13

Number   Major   Minor   RaidDevice State
   0       8       49        0      active sync   /dev/sdd1
   1       8       65        1      active sync   /dev/sde1

   2       8       81        -      spare   /dev/sdf1
3.格式化並掛載
[root@localhost ~]# mkfs.xfs /dev/md1		'//格式化分區'
meta-data=/dev/md1               isize=512    agcount=4, agsize=1309632 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=5238528, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mkdir /raid1		'//創建raid1掛載目錄'
[root@localhost ~]# mount /dev/md1 /raid1		'//掛載'
[root@localhost ~]# df -hT
文件系統       類型      容量  已用  可用 已用% 掛載點
/dev/sda2      xfs        20G  3.1G   17G   16% /
devtmpfs       devtmpfs  898M     0  898M    0% /dev
tmpfs          tmpfs     912M     0  912M    0% /dev/shm
tmpfs          tmpfs     912M  9.1M  903M    1% /run
tmpfs          tmpfs     912M     0  912M    0% /sys/fs/cgroup
/dev/sda5      xfs        10G   37M   10G    1% /home
/dev/sda1      xfs       6.0G  174M  5.9G    3% /boot
tmpfs          tmpfs     183M   12K  183M    1% /run/user/42
tmpfs          tmpfs     183M     0  183M    0% /run/user/0
/dev/md0       xfs        40G   33M   40G    1% /raid0
/dev/md1       xfs        20G   33M   20G    1% /raid1

4.3:RAID 5實驗

1.創建raid5
[root@localhost ~]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[g-j]1 -x1 /dev/sdk1 '//用sdg1,sdh1,sdj1創建raid5,將sdk1作爲備用磁盤'
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
2.查看磁盤信息
[root@localhost ~]# cat /proc/mdstat		'//查看狀態信息'
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] 
md5 : active raid5 sdj1[4] sdk1[3](S) sdh1[1] sdg1[0]
      41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      
md0 : active raid0 sdc1[1] sdb1[0]
      41908224 blocks super 1.2 512k chunks
      
unused devices: <none>
[root@localhost ~]# mdadm -D /dev/md5		'//查看詳細信息'
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 23:53:59 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

   Update Time : Mon Nov  4 23:55:43 2019
         State : clean 
Active Devices : 3

   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

​        Layout : left-symmetric
​    Chunk Size : 512K

Consistency Policy : resync

​          Name : localhost.localdomain:5  (local to host localhost.localdomain)
​          UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
​        Events : 18

Number   Major   Minor   RaidDevice State
   0       8       97        0      active sync   /dev/sdg1
   1       8      113        1      active sync   /dev/sdh1
   4       8      145        2      active sync   /dev/sdj1

   3       8      161        -      spare   /dev/sdk1
3.刪除一塊磁盤,看備用磁盤是否自動頂替掉壞掉的磁盤
[root@localhost ~]# mdadm -f /dev/md5 /dev/sdg1		'//刪除sdg1'
mdadm: set /dev/sdg1 faulty in /dev/md5		'//提示sdg1已經損壞'
[root@localhost ~]# mdadm -D /dev/md5		'//查看詳細信息'
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 23:53:59 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

   Update Time : Tue Nov  5 00:00:54 2019
         State : clean, degraded, recovering 
Active Devices : 2

   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 1

​        Layout : left-symmetric
​    Chunk Size : 512K

Consistency Policy : resync

Rebuild Status : 22% complete

​          Name : localhost.localdomain:5  (local to host localhost.localdomain)
​          UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
​        Events : 23

Number   Major   Minor   RaidDevice State
   3       8      161        0      spare rebuilding   /dev/sdk1		'//發現備用sdk1已經頂替上來'
   1       8      113        1      active sync   /dev/sdh1
   4       8      145        2      active sync   /dev/sdj1

   0       8       97        -      faulty   /dev/sdg1
4.格式化並掛載
[root@localhost ~]# mkdir /raid5		'//創建掛載點目錄'
[root@localhost ~]# mkfs.xfs /dev/md5		'//格式化'
meta-data=/dev/md5               isize=512    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mount /dev/md5 /raid5		'//掛載'

4.4:RAID 6實驗

同RAID 5實驗

4.5:RAID 1+0 實驗

RAID 1+0是用兩個RAID1來創建的

1.連續創建兩個raid1
[root@localhost ~]# mdadm -C -v /dev/md0 -l1 -n2 /dev/sd[b-c]1		'//創建第一個raid1'
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1		'//創建第二個raid1'
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看詳細信息
[root@localhost ~]# mdadm -D /dev/md0
[root@localhost ~]# mdadm -D /dev/md1
3.創建raid1+0
[root@localhost ~]# mdadm -C -v /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
4.查看詳細信息
[root@localhost ~]# mdadm -D /dev/md10
/dev/md10:
           Version : 1.2
     Creation Time : Tue Nov  5 00:19:07 2019
        Raid Level : raid0
        Array Size : 41875456 (39.94 GiB 42.88 GB)		'//創建成功'
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

   Update Time : Tue Nov  5 00:19:07 2019
         State : clean 
Active Devices : 2

   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

​    Chunk Size : 512K

Consistency Policy : none

​          Name : localhost.localdomain:10  (local to host localhost.localdomain)
​          UUID : 6c3209a3:71bece7a:9b3129be:05a436e0
​        Events : 0

Number   Major   Minor   RaidDevice State
   0       9        0        0      active sync   /dev/md0
   1       9        1        1      active sync   /dev/md1
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章