中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

理論+實驗 服務器硬件即RAID配置實戰

發布時間:2020-07-07 18:48:34 來源:網絡 閱讀:265 作者:wx5d8b05ec4cbc3 欄目:系統運維

[TOC]

前言:

磁盤陣列(Redundant Arrays of Independent Drives,RAID),有“獨立磁盤構成的具有冗余能力的陣列”之意。
磁盤陣列是由很多塊獨立的磁盤,組合成一個容量巨大的磁盤組,利用個別磁盤提供數據所產生加成效果提升整個磁盤系統效能。利用這項技術,將數據切割成許多區段,分別存放在各個硬盤上。
磁盤陣列還能利用同位檢查(Parity Check)的觀念,在數組中任意一個硬盤故障時,仍可讀出數據,在數據重構時,將數據經計算后重新置入新硬盤中

一:服務器硬件

常見的服務器硬件有:cpu,內存,網卡,硬盤,遠程管理口,陣列卡,電源,主板
cpu一般是雙芯的,即安裝兩個cpu

內存:支持內存容量很高,基本上都在4TB

硬盤:通常都會對硬盤做raid,來保證數據的高效傳輸和數據安全可靠

二:RAID磁盤陣列詳解

1)RAID磁盤陣列介紹

  • RAID是英文Redundant Array of Independent Disks的縮寫,中文簡稱為獨立冗余磁盤陣列
  • RAID是吧多塊獨立的物理硬盤按不同的方式組合起來形成一個硬盤組(邏輯硬盤),從而提供比單個硬盤更高的存儲性能額和提供數據備份技術
  • 組成磁盤陣列的不同方式稱為RAID級別(RAID Levels),常用的RAID級別有以下幾種:RAID0,RAID1,RAID5,RAID6,RAID1+0等

2) RAID 0磁盤陣列介紹

  • RAID 0連續以位或字節為單位分個數據,并行同時讀/寫于多個磁盤上,因此具有很高的數據傳輸率,但他沒有數據冗余(即沒有備份),因此并不能算是真正的RAID結構

  • RAID 0只是單純地提高性能,并沒有為數據的可靠性提供保證,可靠性低而且其中的一個磁盤失效將影響到所有數據

  • RAID 0不能應用于數據安全性要求高的場合,常應用于多讀寫的場景

  • RAID 0 在windows中叫做帶區卷(linux叫條帶券),

    容量總和是兩個磁盤相加

理論+實驗 服務器硬件即RAID配置實戰

?

3)RAID 1磁盤陣列介紹

  • 通過磁盤數據鏡像實現數據冗余(即備份),在成堆的獨立磁盤上產生互為備份的數據
  • 在原始數據繁忙時,可直接從鏡像拷貝中讀取數據,因此RAID 1可以提高讀取性能;寫入速度不變,容量只有磁盤(偶數)總容量的二分之一,因此成本最高,另外一半用來備份數據,可靠性高
  • RAID 1是磁盤陣列中單位成本最高的,但提供了很高的數據安全性和可用性。當一個磁盤失效時,系統可以自動切換到鏡像磁盤上讀寫,而不需要重組失效的數據

理論+實驗 服務器硬件即RAID配置實戰

4)RAID 5磁盤陣列介紹

  • N(N>=3)塊盤組成陣列,一份數據產生N-1個條帶,同時還有一份校驗數據,共N份數據在N塊盤上循環均衡存儲
  • N塊盤同時讀寫,讀性能很高,但由于有校驗機制的問題,即校驗數據的存在,寫性能相對不高
  • 容量為(N-1)/N*總磁盤容量
  • 可靠性高,允許壞1塊盤,不影響所有數據,把壞的磁盤換下來,可以利用校驗數據來恢復丟失數據

理論+實驗 服務器硬件即RAID配置實戰

5)RAID 6磁盤陣列介紹

  • N(N>=4)塊盤組成陣列,容量為(N-2)/N*磁盤總容量
  • 與RAID 5相比,RAID 6增加了第二個獨立的奇偶校驗信息塊。兩個獨立的奇偶系統使用不同的算法(相當于二元一次方程),即時兩塊磁盤同時失效也不會影響數據的使用
  • 相對于RAID 5有更大的寫損失,因此寫性能相對較差
  • 線網上面用RAID 6 的比較多

理論+實驗 服務器硬件即RAID配置實戰

6) RAID 1+0磁盤陣列介紹

  • N(偶數,N>=4)塊盤兩兩鏡像后,再組合成一個RAID 0

  • 容量為N/2容量
  • N/2塊盤同時寫入,N塊盤同時讀取
  • 性能高,可靠性高
  • 也是線網中常用的一種磁盤陣列

理論+實驗 服務器硬件即RAID配置實戰

三:RAID陣列卡介紹

3.1陣列卡

陣列卡就是用來實現RAID功能的板卡,通常是由I/O(imput輸入/output輸出)處理器、硬盤控制器、硬盤連接器和緩存等一系列零組件構成的

不同的RAID卡支持的RAID功能不同,例如支持RAID0、RAID1、RAID5、RAID10等

RAID卡的接口類型

IDE接口、SCSI接口、SATA接口和SAS接口

3.2 陣列卡的緩存

緩存(Csche)是RAID卡與外部總線交換數據的場所,RAID卡先將數據傳送到緩存,在由緩存和外邊數據總線交換數據

緩存的大小與速度是直接關系到RAID卡的實際傳輸速度的重要因素

不同的RAID卡出廠時配備的內存容量不同,一半為幾兆到數百兆容量不等

四:構建軟RAID磁盤陣列

案例:構建軟RAID磁盤陣列

需求描述:

  • 為Linux服務器添加4塊SCSI硬盤
  • 使用mdadm軟件包,構建RAID磁盤陣列,提高磁盤存儲的性能和可靠性

思路:

  • 安裝mdadm
  • 準備用于RAID陣列的分區
    • 為Linux服務器添加4塊SCSI硬盤,并使用fdisk工具各劃分出一塊2GB的分區,依次為/dev/sdb1、/dev/sdc1、/dev/sdd1、/dev/sde1
    • 將其類型ID更改為“fd'”,對應為“Linux raid autodetect” ,表示支持用于RAID磁盤陣列
  • 創建RAID設備并建立文件系統
  • 掛載并使用文件系統
[root@localhost ~]# rpm -q mdadm    查看madadam工具是否已安裝
mdadm-4.0-5.el7.x86_64  顯示安裝

接下來開始配置硬盤

理論+實驗 服務器硬件即RAID配置實戰

當前磁盤情況

[root@localhost ~]# fdisk -l    查看所有磁盤信息

磁盤 /dev/sda:42.9 GB, 42949672960 字節,83886080 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節
磁盤標簽類型:dos
磁盤標識符:0x000a55e9

   設備 Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048    12584959     6291456   83  Linux
/dev/sda2        12584960    79710207    33562624   8e  Linux LVM

磁盤 /dev/mapper/centos-root:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

磁盤 /dev/mapper/centos-swap:2147 MB, 2147483648 字節,4194304 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

磁盤 /dev/mapper/centos-home:10.7 GB, 10737418240 字節,20971520 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節
[root@localhost ~]# init 6  重啟系統
[root@localhost ~]# fdisk -l    重新查看所有磁盤信息,發現新增的四塊磁盤

磁盤 /dev/sdb:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

磁盤 /dev/sdc:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

磁盤 /dev/sdd:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

磁盤 /dev/sde:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節

開始依次給每塊磁盤進行分區

[root@localhost ~]# fdisk /dev/sdb  創建分區,
歡迎使用 fdisk (util-linux 2.23.2)。

更改將停留在內存中,直到您決定將更改寫入磁盤。
使用寫入命令前請三思。

Device does not contain a recognized partition table
使用磁盤標識符 0x2ed1de1d 創建新的 DOS 磁盤標簽。

命令(輸入 m 獲取幫助):n
Partition type:
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): 
Using default response p
分區號 (1-4,默認 1):
起始 扇區 (2048-41943039,默認為 2048):
將使用默認值 2048
Last 扇區, +扇區 or +size{K,M,G} (2048-41943039,默認為 41943039):
將使用默認值 41943039
分區 1 已設置為 Linux 類型,大小設為 20 GiB

命令(輸入 m 獲取幫助):t
已選擇分區 1
Hex 代碼(輸入 L 列出所有代碼):l

 0  空              24  NEC DOS         81  Minix / 舊 Linu bf  Solaris        
 1  FAT12           27  隱藏的 NTFS Win 82  Linux 交換 / So c1  DRDOS/sec (FAT-
 2  XENIX root      39  Plan 9          83  Linux           c4  DRDOS/sec (FAT-
 3  XENIX usr       3c  PartitionMagic  84  OS/2 隱藏的 C:  c6  DRDOS/sec (FAT-
 4  FAT16 <32M      40  Venix 80286     85  Linux 擴展      c7  Syrinx         
 5  擴展            41  PPC PReP Boot   86  NTFS 卷集       da  非文件系統數據 
 6  FAT16           42  SFS             87  NTFS 卷集       db  CP/M / CTOS / .
 7  HPFS/NTFS/exFAT 4d  QNX4.x          88  Linux 純文本    de  Dell 工具      
 8  AIX             4e  QNX4.x 第2部分  8e  Linux LVM       df  BootIt         
 9  AIX 可啟動      4f  QNX4.x 第3部分  93  Amoeba          e1  DOS 訪問       
 a  OS/2 啟動管理器 50  OnTrack DM      94  Amoeba BBT      e3  DOS R/O        
 b  W95 FAT32       51  OnTrack DM6 Aux 9f  BSD/OS          e4  SpeedStor      
 c  W95 FAT32 (LBA) 52  CP/M            a0  IBM Thinkpad 休 eb  BeOS fs        
 e  W95 FAT16 (LBA) 53  OnTrack DM6 Aux a5  FreeBSD         ee  GPT            
 f  W95 擴展 (LBA)  54  OnTrackDM6      a6  OpenBSD         ef  EFI (FAT-12/16/
10  OPUS            55  EZ-Drive        a7  NeXTSTEP        f0  Linux/PA-RISC  
11  隱藏的 FAT12    56  Golden Bow      a8  Darwin UFS      f1  SpeedStor      
12  Compaq 診斷     5c  Priam Edisk     a9  NetBSD          f4  SpeedStor      
14  隱藏的 FAT16 <3 61  SpeedStor       ab  Darwin 啟動     f2  DOS 次要       
16  隱藏的 FAT16    63  GNU HURD or Sys af  HFS / HFS+      fb  VMware VMFS    
17  隱藏的 HPFS/NTF 64  Novell Netware  b7  BSDI fs         fc  VMware VMKCORE 
18  AST 智能睡眠    65  Novell Netware  b8  BSDI swap       fd  Linux raid 自動
1b  隱藏的 W95 FAT3 70  DiskSecure 多啟 bb  Boot Wizard 隱  fe  LANstep        
1c  隱藏的 W95 FAT3 75  PC/IX           be  Solaris 啟動    ff  BBT            
1e  隱藏的 W95 FAT1 80  舊 Minix       
Hex 代碼(輸入 L 列出所有代碼):fd
已將分區“Linux”的類型更改為“Linux raid autodetect”

命令(輸入 m 獲取幫助):p

磁盤 /dev/sdb:21.5 GB, 21474836480 字節,41943040 個扇區
Units = 扇區 of 1 * 512 = 512 bytes
扇區大小(邏輯/物理):512 字節 / 512 字節
I/O 大小(最小/最佳):512 字節 / 512 字節
磁盤標簽類型:dos
磁盤標識符:0x2ed1de1d

   設備 Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048    41943039    20970496   fd  Linux raid autodetect

命令(輸入 m 獲取幫助):w
The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盤。

用fdisk /dev/sdc,fidsk /dev/sdd,fdisk /dev/sde命令去配置另外三塊磁盤,

   設備 Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    41943039    20970496   fd  Linux raid autodetect

   設備 Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048    41943039    20970496   fd  Linux raid autodetect
   設備 Boot      Start         End      Blocks   Id  System
/dev/sde1            2048    41943039    20970496   fd  Linux raid autodetect

接下來就可以以這四塊磁盤為素材,去配置raid,先配置個raid

可以先試一下raid0條帶卷,也叫做跨區卷

[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1  
#/dev/md0就是raid0名字,-C 創建,-v顯示過程 -l確定raid等級,-n確定幾塊盤,
還有一個備用選項-x
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -D /dev/md0   #mdadm -D 顯示raid信息
/dev/md0:
           Version : 1.2
     Creation Time : Mon Nov  4 12:49:59 2019
        Raid Level : raid0
        Array Size : 41908224 (39.97 GiB 42.91 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 12:49:59 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 512K

Consistency Policy : none

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : d531230c:c4e71b72:00f695a1:f9ce404c
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
 [root@localhost ~]# cat /proc/mdstat   #還可以從/proc硬件信息目錄中查看
 raid對應的文件/proc/mdstat
Personalities : [raid0] 
md0 : active raid0 sdc1[1] sdb1[0]
      41908224 blocks super 1.2 512k chunks

raid0 卷制作完畢,接下來格式化之后就可以掛載使用

[root@localhost ~]# mkfs.xfs /dev/md0   #格式化/dev/md0
meta-data=/dev/md0               isize=512    agcount=16, agsize=654720 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10475520, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5120, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost ~]# mkdir /md0  #創建掛載點目錄
[root@localhost ~]# mount /dev/md0 /md0     #掛載
[root@localhost ~]# df -Th  #查看
文件系統                類型      容量  已用  可用 已用% 掛載點
/dev/mapper/centos-root xfs        20G  3.3G   17G   17% /
devtmpfs                devtmpfs  977M     0  977M    0% /dev
tmpfs                   tmpfs     993M     0  993M    0% /dev/shm
tmpfs                   tmpfs     993M  9.0M  984M    1% /run
tmpfs                   tmpfs     993M     0  993M    0% /sys/fs/cgroup
/dev/sda1               xfs       6.0G  161M  5.9G    3% /boot
/dev/mapper/centos-home xfs        10G   50M   10G    1% /home
tmpfs                   tmpfs     199M   12K  199M    1% /run/user/42
tmpfs                   tmpfs     199M     0  199M    0% /run/user/0
/dev/md0                xfs        40G   33M   40G    1% /md0   #已掛載

接下來取消掛載,停止md0

[root@localhost dev]# umount /md0
[root@localhost dev]# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
[root@localhost dev]# cat /proc/mdstat
Personalities : [raid0] 
unused devices: <none>
[root@localhost dev]# ls    查看發現沒有md0
agpgart          log                 sdc       tty18  tty45   urandom
autofs           loop-control        sdc1      tty19  tty46   usbmon0
block            lp0                 sdd       tty2   tty47   usbmon1
bsg              lp1                 sdd1      tty20  tty48   usbmon2
btrfs-control    lp2                 sde       tty21  tty49   vcs
bus              lp3                 sde1      tty22  tty5    vcs1
cdrom            mapper              sg0       tty23  tty50   vcs2
centos           mcelog              sg1       tty24  tty51   vcs3
char             mem                 sg2       tty25  tty52   vcs4
console          mqueue              sg3       tty26  tty53   vcs5
core             net                 sg4       tty27  tty54   vcs6
cpu              network_latency     sg5       tty28  tty55   vcsa
cpu_dma_latency  network_throughput  shm       tty29  tty56   vcsa1
crash            null                snapshot  tty3   tty57   vcsa2
disk             nvram               snd       tty30  tty58   vcsa3
dm-0             oldmem              sr0       tty31  tty59   vcsa4
dm-1             port                stderr    tty32  tty6    vcsa5
dm-2             ppp                 stdin     tty33  tty60   vcsa6
dri              ptmx                stdout    tty34  tty61   vfio
fb0              pts                 tty       tty35  tty62   vga_arbiter
fd               random              tty0      tty36  tty63   vhci
full             raw                 tty1      tty37  tty7    vhost-net
fuse             rfkill              tty10     tty38  tty8    vmci
hidraw0          rtc                 tty11     tty39  tty9    vsock
hpet             rtc0                tty12     tty4   ttyS0   zero
hugepages        sda                 tty13     tty40  ttyS1
hwrng            sda1                tty14     tty41  ttyS2
initctl          sda2                tty15     tty42  ttyS3
input            sdb                 tty16     tty43  uhid
kmsg             sdb1                tty17     tty44  uinput

開始制作raid1,rai1d俗稱鏡像卷

[root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1    
#-C創建 -v顯示詳細過程 要創建的raid名稱   -l raid等級 -n磁盤個數 磁盤名稱
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon Nov  4 12:49:59 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid0 devices=2 ctime=Mon Nov  4 12:49:59 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@localhost dev]# cat /proc/mdstat  查看mdstat狀態
Personalities : [raid0] [raid1] 
md1 : active raid1 sdc1[1] sdb1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      [=====>...............]  resync = 26.7% (5601408/20954112)    finish=1.2min speed=207459K/sec     #正在同步

unused devices: <none>
[root@localhost dev]# mdadm -D /dev/md1     #查看詳細信息
/dev/md1:
           Version : 1.2
     Creation Time : Mon Nov  4 13:41:55 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 13:43:39 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : d873e511:0bb8274c:97a98d9f:76313fc8
            Events : 17

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
[root@localhost dev]# mkfs.xfs /dev/md1     #格式化/dev/md1
mkfs.xfs: /dev/md1 appears to contain an existing filesystem (xfs).
mkfs.xfs: Use the -f option to force overwrite.     
#反饋說md1中存在xfs系統,是否要強行執行-f格式化,原因自己分析一波,我就不解釋了
[root@localhost dev]# mkfs.xfs -f /dev/md1  #強制執行
meta-data=/dev/md1               isize=512    agcount=4, agsize=1309632 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=5238528, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost dev]# mount /dev/md1 /md0   #掛載到之前設置的掛載點/md0
[root@localhost dev]# df -Th
文件系統                類型      容量  已用  可用 已用% 掛載點
/dev/mapper/centos-root xfs        20G  3.3G   17G   17% /
devtmpfs                devtmpfs  977M     0  977M    0% /dev
tmpfs                   tmpfs     993M     0  993M    0% /dev/shm
tmpfs                   tmpfs     993M  9.0M  984M    1% /run
tmpfs                   tmpfs     993M     0  993M    0% /sys/fs/cgroup
/dev/sda1               xfs       6.0G  161M  5.9G    3% /boot
/dev/mapper/centos-home xfs        10G   50M   10G    1% /home
tmpfs                   tmpfs     199M   12K  199M    1% /run/user/42
tmpfs                   tmpfs     199M     0  199M    0% /run/user/0
/dev/md1                xfs        20G   33M   20G    1% /md0

還有-x 指定備用磁盤,這里操作演示一波

[root@localhost dev]# umount /md0   取消掛載
[root@localhost dev]# mdadm -S /dev/md1     停止raid1
mdadm: stopped /dev/md1
[root@localhost dev]# mdadm -C /dev/md2 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdb1
#重新創建一個raid1,-x1,指定一塊備用磁盤
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 13:41:55 2019
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
[root@localhost dev]# cat /proc/mdstat  #查看信息狀態
Personalities : [raid0] [raid1] 
md2 : active raid1 sdb1[2](S) sde1[1] sdd1[0]
      20954112 blocks super 1.2 [2/2] [UU]
      [====>................]  resync = 21.0% (4400896/20954112) finish=1.3min speed=209566K/sec

unused devices: <none>
[root@localhost dev]# mdadm -D /dev/md2     #第二種方法查看
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 14:27:51 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:28:49 2019
             State : clean, resyncing 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 0
     Spare Devices : 1

Consistency Policy : resync

     Resync Status : 56% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d
            Events : 9

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1

       2       8       17        -      spare   /dev/sdb1   #這一塊就是備用盤

用mdadm中的-f去模擬演示毀掉一塊盤

[root@localhost dev]# mdadm -f /dev/md2 /dev/sdd1   毀掉md2中的sdd1
mdadm: set /dev/sdd1 faulty in /dev/md2
[root@localhost dev]# mdadm -D /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 14:27:51 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 3
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:30:11 2019
             State : clean, degraded, recovering 
    Active Devices : 1
   Working Devices : 2
    Failed Devices : 1
     Spare Devices : 1

Consistency Policy : resync

    Rebuild Status : 15% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 774b6bee:46ab3939:243f63b7:fdc1d58d
            Events : 21

    Number   Major   Minor   RaidDevice State
       2       8       17        0      spare rebuilding   /dev/sdb1    #被頂替上去
       1       8       65        1      active sync   /dev/sde1

       0       8       49        -      faulty   /dev/sdd1  #被換下來

再實驗一個raid5,從案例的需求可以發現,可以為其配置raid6,或者raid1+0,這里還是先順序把raid5演練一波

[root@localhost dev]# mdadm -S /dev/md2     #停止md2
mdadm: stopped /dev/md2
[root@localhost dev]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[b-d]1 -x1    /dev/sde1 
#-C創建 -v顯示詳細過程 raid名稱 -l raid等級 -n 組成raid磁盤個數 組成raid的磁盤名稱 
-x 備用磁盤
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 13:41:55 2019
mdadm: /dev/sdd1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid1 devices=2 ctime=Mon Nov  4 14:27:51 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
[root@localhost dev]# mdadm -D /dev/md5
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 14:57:07 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 14:58:53 2019
             State : clean 
    Active Devices : 3
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 6057b886:24586340:b6ece802:6f3904d6
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       4       8       49        2      active sync   /dev/sdd1

       3       8       65        -      spare   /dev/sde1

-x備用了一塊磁盤,這里搞壞一個盤試一試

[root@localhost dev]# mdadm -f /dev/md5 /dev/sdd1   #搞壞md5下面的sdd1
mdadm: set /dev/sdd1 faulty in /dev/md5     #顯示成功搞壞
[root@localhost dev]# mdadm -D /dev/md5     #再次查看信息
/dev/md5:
           Version : 1.2
     Creation Time : Mon Nov  4 14:57:07 2019
        Raid Level : raid5
        Array Size : 41908224 (39.97 GiB 42.91 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 3
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:04:50 2019
             State : clean, degraded, recovering 
    Active Devices : 2
   Working Devices : 3
    Failed Devices : 1
     Spare Devices : 1

            Layout : left-symmetric
        Chunk Size : 512K

Consistency Policy : resync

    Rebuild Status : 25% complete

              Name : localhost.localdomain:5  (local to host localhost.localdomain)
              UUID : 6057b886:24586340:b6ece802:6f3904d6
            Events : 24

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
       3       8       65        2      spare rebuilding   /dev/sde1    #頂替上來

       4       8       49        -      faulty   /dev/sdd1  #換下來

然后的操作就是格式化,mkfs.xfs /dev/md5,掛載,這里就不再操作了

raid6就是把其中的級別-l改為6,磁盤塊數-n不少于四塊,備用盤-x記得給,養成好習慣,在演示一波raid1+0

raid1+0的原理是先用兩塊盤去做raid1鏡像卷,然后把兩個raid1為單位,去做raid0條帶卷

[root@localhost dev]# mdadm -S /dev/md5     #停用md5
mdadm: stopped /dev/md5
[root@localhost dev]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[b-c]1    #創建raid1 md1
mdadm: /dev/sdb1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
[root@localhost dev]# mdadm -C -v /dev/md2 -l1 -n2 /dev/sd[d-e]1    #創建riad1 md2
mdadm: /dev/sdd1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sde1 appears to be part of a raid array:
       level=raid5 devices=3 ctime=Mon Nov  4 14:57:07 2019
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md2 started.
[root@localhost dev]# mdadm -C -v /dev/md0 -l0 -n2 /dev/md[1-2] #以兩個鏡像卷為
單位,創建raid0
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost dev]# mdadm -D /dev/md0 #查看raid0卷md0
/dev/md0:
           Version : 1.2
     Creation Time : Mon Nov  4 15:19:28 2019
        Raid Level : raid0
        Array Size : 41875456 (39.94 GiB 42.88 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:19:28 2019
             State : clean 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

        Chunk Size : 512K

Consistency Policy : none

              Name : localhost.localdomain:0  (local to host localhost.localdomain)
              UUID : e0b393ab:3c8c8d1c:21ddf9f1:26ab1901
            Events : 0

    Number   Major   Minor   RaidDevice State
       0       9        1        0      active sync   /dev/md1  #單位是鏡像卷
       1       9        2        1      active sync   /dev/md2
[root@localhost dev]# mdadm -D /dev/md1 #查看raid1卷md1
/dev/md1:
           Version : 1.2
     Creation Time : Mon Nov  4 15:18:02 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:19:47 2019
             State : active 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : localhost.localdomain:1  (local to host localhost.localdomain)
              UUID : 8ece5682:dc5b03c7:5d1d67a8:22c85b59
            Events : 18

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1 #單位是sd
       1       8       33        1      active sync   /dev/sdc1
[root@localhost dev]# mdadm -D /dev/md2
/dev/md2:
           Version : 1.2
     Creation Time : Mon Nov  4 15:18:43 2019
        Raid Level : raid1
        Array Size : 20954112 (19.98 GiB 21.46 GB)
     Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

       Update Time : Mon Nov  4 15:20:02 2019
             State : active, resyncing 
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

     Resync Status : 79% complete

              Name : localhost.localdomain:2  (local to host localhost.localdomain)
              UUID : 9501fa59:f37e90a0:227aaf3f:567026a1
            Events : 13

    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       65        1      active sync   /dev/sde1
[root@localhost dev]# mount /dev/md1 /md0   #掛載raid1鏡像卷
mount: 未知的文件系統類型“linux_raid_member” #沒有格式化
[root@localhost dev]# mount /dev/md0 /md0   #掛載raid0條帶卷
mount: /dev/md0 寫保護,將以只讀方式掛載    #可以掛,但是沒啥用,只讀,寫保護
mount: 未知的文件系統類型“(null)”
[root@localhost dev]# mkfs.xfs /dev/md0     #格式化條帶卷raid0
meta-data=/dev/md0               isize=512    agcount=16, agsize=654208 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=10467328, imaxpct=25
         =                       sunit=128    swidth=256 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=5112, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
[root@localhost dev]# mount /dev/md0 /md0   #再次掛載raid0,可以正常掛上去
[root@localhost dev]# mkfs.xfs /dev/md1     #格式化鏡像卷raid1,發現資源忙
mkfs.xfs: cannot open /dev/md1: 設備或資源忙  #這是因為鏡像卷成為raid0的單位,
無法執行獨立的操作
[root@localhost dev]# df -TH    #查看一下
文件系統                類型      容量  已用  可用 已用% 掛載點
/dev/mapper/centos-root xfs        22G  3.5G   18G   17% /
devtmpfs                devtmpfs  1.1G     0  1.1G    0% /dev
tmpfs                   tmpfs     1.1G     0  1.1G    0% /dev/shm
tmpfs                   tmpfs     1.1G  9.5M  1.1G    1% /run
tmpfs                   tmpfs     1.1G     0  1.1G    0% /sys/fs/cgroup
/dev/sda1               xfs       6.5G  168M  6.3G    3% /boot
/dev/mapper/centos-home xfs        11G   52M   11G    1% /home
tmpfs                   tmpfs     209M   13k  209M    1% /run/user/42
tmpfs                   tmpfs     209M     0  209M    0% /run/user/0
/dev/md0                xfs        43G   35M   43G    1% /md0   #掛載成功

總結:

  • raid0是兩塊磁盤,同時讀寫,速度比一般的快一倍,但是沒有進行備份數據的操作,所以在數據安全性的層面上跟一般的一樣,容量是所有磁盤容量的總和
  • raid1是兩塊磁盤,同時往里寫一樣的數據,速度跟一般的一致,安全方面,多了一塊磁盤,就多了一份保障,容量是磁盤總容量的一半
  • raid5最少三塊磁盤,分別往里讀寫,在原有數據的基礎上,還多了一份數據校驗記錄,這一份數據校驗記錄跟原有數據平均均分在各個磁盤內,相當于可以損壞一塊磁盤,把壞磁盤換下來,數據校驗記錄可以恢復壞磁盤的數據,安全性比一般的多了一層保障,讀寫速度是一般的(N-1)倍,容量是磁盤總容量的(N-1)N
  • raid6最少四塊磁盤,相當于在raid5的基礎上再加一個數據校驗記錄,這樣就可以同時損壞兩塊盤而不影響數據完整,安全性比一般的多了兩層保障,讀寫速度是一般的(N-2)被,容量是磁盤總容量的(N-2)/N
  • raid1+0是raid1和raid0的集合,相當于對數據先進行已經raid1的封裝,然后在進行raid0的封裝,應用也是比較廣
向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

南宁市| 嘉鱼县| 杭锦后旗| 茶陵县| 五指山市| 洛南县| 金门县| 安顺市| 剑阁县| 阳山县| 准格尔旗| 孟村| 安庆市| 同仁县| 车致| 古田县| 自治县| 阿城市| 邵东县| 水富县| 汽车| 故城县| 兴和县| 福鼎市| 舒兰市| 迁西县| 从江县| 延津县| 石狮市| 离岛区| 筠连县| 徐州市| 威信县| 嘉鱼县| 古丈县| 垣曲县| 金坛市| 远安县| 墨江| 宝坻区| 昌江|