Linux

centos software raid setting

Naan 2022. 3. 4. 12:37
320x100

centos8 버전에서 software raid setting 방법

OS 설치 완료 후

fdisk 로 상태 확인

fdisk -l
Disk /dev/nvme2n1: 1.9 TiB, 2048408248320 bytes, 4000797360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xf1c8ca8c

Device         Boot Start        End    Sectors  Size Id Type
/dev/nvme2n1p1         63 4000579646 4000579584  1.9T 82 Linux swap / Solaris


Disk /dev/nvme1n1: 1.9 TiB, 2048408248320 bytes, 4000797360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x56ba1f85

Device         Boot Start        End    Sectors  Size Id Type
/dev/nvme1n1p1         63 4000579646 4000579584  1.9T 82 Linux swap / Solaris


Disk /dev/nvme0n1: 1.9 TiB, 2048408248320 bytes, 4000797360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x07537d31

Device         Boot Start        End    Sectors  Size Id Type
/dev/nvme0n1p1         63 4000579646 4000579584  1.9T 82 Linux swap / Solaris


Disk /dev/nvme3n1: 1.9 TiB, 2048408248320 bytes, 4000797360 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x9b487582

2T x4 개 이다.

software raid 는 아래 명령어를 치면 된다.

mdadm --create /dev/md0 --level=레이드몇으로 할지 숫자 --raid-device=레이드갯수 디스크 경로

# mdadm --create /dev/md0 --level=0 --raid-device=4 /dev/nvme2n1p1 /dev/nvme1n1p1 /dev/nvme0n1p1 /dev/nvme3n1p1
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

위와 같이 하면 /dev/md0 으로 레이드를 만들고 레이드 0, 디스크는 4개로 연결이다.

레이드 상태를 보려면

# mdadm --detail /dev/md0
/dev/md0:
           Version : 1.2
     Creation Time : Thu Mar  3 04:18:41 2022
        Raid Level : raid0
        Array Size : 8000630784 (7.45 TiB 8.19 TB)
      Raid Devices : 4
     Total Devices : 4
       Persistence : Superblock is persistent

       Update Time : Thu Mar  3 04:18:41 2022
             State : clean
    Active Devices : 4
   Working Devices : 4
    Failed Devices : 0
     Spare Devices : 0

            Layout : -unknown-
        Chunk Size : 512K

Consistency Policy : none

              Name : 0
              UUID : 3c061090:ee94aa2c:aa7c973d:491a844f
            Events : 0

    Number   Major   Minor   RaidDevice State
       0     259        1        0      active sync   /dev/nvme2n1p1
       1     259        5        1      active sync   /dev/nvme1n1p1
       2     259        6        2      active sync   /dev/nvme0n1p1
       3     259        7        3      active sync   /dev/nvme3n1p1

정상 적으로 작동 되고 있다.

이제 포멧을 해주고 마운트 해주자.

2T 가 넘어가니 ext4 로는 안된다. xfs 로 잡아주자.

bytes) is too large (maximum is 256KiB)
log stripe unit adjusted to 32KiB
meta-data=/dev/md0               isize=512    agcount=32, agsize=62504832 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=0 inobtcount=0
data     =                       bsize=4096   blocks=2000154624, imaxpct=5
         =                       sunit=128    swidth=512 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=521728, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0
Discarding blocks...
Done.

# mkdir work

# mount /dev/md0 /work

# df -h
Filesystem           Size  Used Avail Use% Mounted on
devtmpfs              16G     0   16G   0% /dev
tmpfs                 16G     0   16G   0% /dev/shm
tmpfs                 16G   19M   16G   1% /run
tmpfs                 16G     0   16G   0% /sys/fs/cgroup
/dev/mapper/cs-root  168G  8.4G  159G   5% /
/dev/sda2           1014M  258M  757M  26% /boot
/dev/sda1            599M  7.3M  592M   2% /boot/efi
tmpfs                3.2G   44K  3.2G   1% /run/user/1000
/dev/md0             7.5T   54G  7.4T   1% /work

정상적으로 레이드가 잡혀 있는것을 확인 할 수 있다.

재부팅 이후 부터는 md0 은 사라지고 md127 로 변경되었다.

fstab 에 넣을려면

/dev/md127              /work                   xfs     defaults        1 2

이런식으로 잡으면 된다.

 

레이드 삭제 방법은

언마운트 레이드 서비스 멈춤 레이드 묶은 하드 풀기

umount /work/

mdadm --stop /dev/md127

mdadm --zero-superblock /dev/nvme2n1p1   

mdadm --zero-superblock /dev/nvme1n1p1

mdadm --zero-superblock /dev/nvme0n1p1

mdadm --zero-superblock /dev/nvme3n1p1

이렇게 하면 레이드 삭제가 된다.

320x100