RHEL 스토리지 파티션 및 스왑 공간 관리

Red Hat Enterprise LinuxBeginner
지금 연습하기

소개

이 랩에서는 Red Hat Enterprise Linux (RHEL) 시스템에서 스토리지 파티션과 스왑 공간을 관리하는 실습 경험을 얻게 됩니다. XFS 파티션을 생성하고 영구적으로 마운트하는 방법, 그리고 다양한 우선 순위로 스왑 파티션을 구성하고 활성화하는 방법을 배우게 됩니다. 이 랩은 LabEx VM 환경을 사용하며, 사용 가능한 스토리지 장치를 통해 이러한 필수 시스템 관리 기술을 연습할 수 있습니다.

먼저 사용 가능한 디스크를 검사한 다음, 필요한 경우 GPT 파티션 테이블을 설정하는 것을 포함하여 파티션을 생성하고 관리하는 과정을 진행합니다. 이 랩은 영구적인 마운트와 스왑 활성화를 보장하는 데 중점을 두어 RHEL 환경에서 디스크 관리에 대한 포괄적인 이해를 제공합니다.

이것은 가이드 실험입니다. 학습과 실습을 돕기 위한 단계별 지침을 제공합니다.각 단계를 완료하고 실무 경험을 쌓기 위해 지침을 주의 깊게 따르세요. 과거 데이터에 따르면, 이것은 초급 레벨의 실험이며 완료율은 82%입니다.학습자들로부터 93%의 긍정적인 리뷰율을 받았습니다.

사용 가능한 스토리지 장치 검사

이 단계에서는 LabEx VM 에서 사용 가능한 스토리지 장치를 검사합니다. LabEx 환경은 파티션 실습에 사용할 수 있는 추가 스토리지 장치를 제공합니다.

먼저, 디스크 관리 작업을 수행하기 위해 root 사용자로 전환합니다. 현재 labex 사용자로 sudo 권한으로 로그인되어 있습니다.

sudo su -

이제 lsblk 명령을 사용하여 시스템에서 사용 가능한 블록 장치를 살펴보겠습니다.

lsblk

다음과 유사한 출력이 표시되어 다양한 스토리지 장치를 보여줍니다.

NAME   MAJ:MIN RM  SIZE RO TYPE MOUNTPOINTS
vda    253:0    0   40G  0 disk
├─vda1 253:1    0    1M  0 part
├─vda2 253:2    0  100M  0 part /boot/efi
└─vda3 253:3    0 39.9G  0 part /
vdb    253:16   0   40G  0 disk

이 환경에서는 파티션이 없고 사용할 준비가 된 추가 스토리지 장치 /dev/vdb에 액세스할 수 있습니다. 이 장치를 자세히 살펴보겠습니다.

lsblk 명령에 -f 옵션을 사용하여 /dev/vdb의 파일 시스템 정보를 표시합니다.

lsblk -f /dev/vdb

다음과 유사한 출력이 표시되어 /dev/vdb가 새롭고 포맷되지 않은 디스크임을 나타냅니다.

NAME FSTYPE FSVER LABEL UUID FSAVAIL FSUSE% MOUNTPOINTS
vdb

다음으로, parted 명령을 사용하여 디스크에 대한 자세한 정보 (파티션 테이블 포함) 를 얻습니다.

parted /dev/vdb print

출력은 /dev/vdb에 아직 파티션 테이블이 없음을 보여줍니다.

Error: /dev/vdb: unrecognised disk label
Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: unknown
Disk Flags:

이는 /dev/vdb가 파티션 준비가 된 새 디스크임을 확인합니다. 오류 메시지는 아직 파티션 테이블로 초기화되지 않은 디스크에 대해 정상입니다.

/dev/vdb 에 XFS 파티션을 생성하고 영구적으로 마운트

이 단계에서는 /dev/vdb에 새 파티션을 생성하고, XFS 파일 시스템으로 포맷하고, 영구적으로 마운트되도록 구성합니다.

/dev/vdb에 1GB 크기의 주 파티션을 생성하고 파일 시스템 유형을 XFS 로 지정합니다. 최적의 성능을 위해 파티션을 섹터 경계에 맞춰 정렬하는 것이 좋습니다. 섹터 2048 부터 시작하는 것이 일반적인 정렬 방식입니다.

먼저 초기화되지 않은 디스크에 파티션 테이블을 생성해야 합니다. parted를 대화형 모드로 사용하여 파티션 테이블과 파티션을 생성합니다.

parted /dev/vdb
GNU Parted 3.5
Using /dev/vdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mklabel msdos
(parted) mkpart
Partition type?  primary/extended? primary
File system type?  [ext2]? xfs
Start? 2048s
End? 1001MB
(parted) quit
Information: You may need to update /etc/fstab.

참고: mklabel msdos 명령은 디스크에 MBR(Master Boot Record) 파티션 테이블을 생성합니다. 파티션을 생성하기 전에 이 작업이 필요합니다. 파티션 테이블을 생성한 후에는 mkpart를 사용하여 실제 파티션을 생성할 수 있습니다. 파티션이 섹터 2048 에서 시작하므로 종료 위치를 1001MB로 설정하면 파티션 크기가 약 1GB 가 됩니다. parted 를 종료하면 /etc/fstab 업데이트에 대한 정보 메시지가 표시되는데, 이는 정상입니다.

파티션이 생성되었는지 확인하려면 parted를 사용하여 /dev/vdb의 파티션 테이블을 출력합니다.

parted /dev/vdb print

새로 생성된 주 파티션을 보여주는 다음과 유사한 출력이 표시되어야 합니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary

새 파티션을 생성한 후에는 커널에 변경 사항을 알려야 합니다. udevadm settle 명령은 시스템이 새 파티션을 등록하고 해당 장치 파일 (예: /dev/vdb1) 을 생성할 때까지 기다립니다.

udevadm settle

이제 파티션이 생성되었으므로 XFS 파일 시스템으로 포맷해야 합니다. 이렇게 하면 파티션이 데이터를 저장할 준비가 됩니다. 이를 위해 mkfs.xfs 명령을 사용합니다.

mkfs.xfs /dev/vdb1

출력에는 XFS 파일 시스템 생성에 대한 세부 정보가 표시됩니다.

meta-data=/dev/vdb1              isize=512    agcount=4, agsize=61056 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=1 inobtcount=1 nrext64=0
data     =                       bsize=4096   blocks=244224, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=16384, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

파일 시스템에 접근하려면 마운트해야 합니다. 먼저 마운트 포인트 디렉토리를 생성합니다. 이 파티션을 /archive에 마운트합니다.

mkdir /archive

영구 마운트 (시스템 부팅 시마다 파일 시스템이 자동으로 마운트됨) 를 하려면 /etc/fstab 파일에 항목을 추가해야 합니다. /dev/vdb1과 같은 장치 이름은 새 디스크가 추가되거나 제거될 때 변경될 수 있으므로 /etc/fstab에서는 파티션의 UUID(Universally Unique Identifier) 를 사용하는 것이 가장 좋습니다.

lsblk --fs를 사용하여 /dev/vdb1의 UUID 를 확인합니다.

lsblk --fs /dev/vdb1

출력에서 UUID 를 기록해 둡니다. 881e856c-37b1-41e3-b009-ad526e46d987와 유사하게 표시됩니다.

NAME FSTYPE FSVER LABEL UUID                                 FSAVAIL FSUSE% MOUNTPOINTS
vdb1 xfs                2ee03827-6acf-4543-9a21-0fd031250b45

이제 nano를 사용하여 /etc/fstab 파일을 열고 파티션에 대한 새 줄을 추가합니다. YOUR_UUID_HERE를 방금 찾은 실제 UUID 로 바꿉니다.

nano /etc/fstab

파일 끝에 다음 줄을 추가합니다.

UUID=YOUR_UUID_HERE /archive xfs defaults 0 0

/etc/fstab 항목 설명:

  • UUID=YOUR_UUID_HERE: UUID 를 사용하여 마운트할 장치를 지정합니다.
  • /archive: 마운트 포인트 디렉토리입니다.
  • xfs: 파일 시스템 유형입니다.
  • defaults: 일반적인 마운트 옵션 세트 (rw, suid, dev, exec, auto, nouser, async) 입니다.
  • 0: dump 옵션 (0 은 덤프 없음을 의미).
  • 0: fsck 순서 (0 은 부팅 시 fsck 검사 없음).

Ctrl+X를 누른 다음 Y를 눌러 확인하고 Enter를 눌러 파일에 쓰기하여 파일을 저장합니다.

/etc/fstab을 수정한 후에는 systemd에 새 항목을 인식하도록 구성을 다시 로드하도록 알려야 합니다.

systemctl daemon-reload

마지막으로 /etc/fstab의 항목을 사용하여 새 파일 시스템을 마운트합니다. mount /archive 명령은 /etc/fstab의 정보를 사용하여 /dev/vdb1/archive에 마운트합니다.

mount /archive

mount 명령의 출력을 확인하고 /archive를 필터링하여 새 파일 시스템이 올바르게 마운트되었는지 확인합니다.

mount | grep /archive

성공적인 마운트를 확인하는 다음과 유사한 출력이 표시되어야 합니다.

/dev/vdb1 on /archive type xfs (rw,relatime,seclabel,attr2,inode64,logbufs=8,logbsize=32k,noquota)

/dev/vdb 에 스왑 파티션 생성 및 활성화

이 단계에서는 /dev/vdb 디스크에 스왑 파티션을 생성합니다. 스왑 공간은 시스템이 물리적 RAM 을 다 사용했을 때 임시 저장에 사용되는 하드 디스크 드라이브 (HDD) 또는 솔리드 스테이트 드라이브 (SSD) 의 일부입니다. RAM 의 오버플로 역할을 하여 메모리가 부족하더라도 시스템이 계속 작동할 수 있도록 하지만 속도는 느려집니다.

먼저, /dev/vdb의 현재 파티션 테이블을 검사하여 새 스왑 파티션을 생성할 위치를 결정합니다.

parted /dev/vdb print

이전 단계에서 생성한 기존 XFS 파티션 (/dev/vdb1) 이 표시됩니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 5369MB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs

이제 스왑 공간으로 사용할 500MB 의 새 주 파티션을 추가합니다. 파티션 파일 시스템 유형을 linux-swap으로 설정합니다. 새 파티션은 기존 /dev/vdb1 파티션 바로 뒤에서 시작됩니다. /dev/vdb1의 끝은 1001MB입니다. 따라서 새 파티션은 1001MB에서 시작하여 1501MB(1001MB + 500MB) 에서 끝납니다.

비대화형 모드에서 parted를 사용하여 이 파티션을 생성합니다.

parted /dev/vdb mkpart primary linux-swap 1001MB 1501MB

Information: You may need to update /etc/fstab. 메시지가 다시 표시될 수 있습니다.

/dev/vdb 디스크의 파티션을 나열하여 작업을 확인합니다.

parted /dev/vdb print

이제 두 개의 파티션이 표시되며, 두 번째 파티션이 새 스왑 파티션입니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs
 2      1001MB  1501MB  499MB   primary               swap

이전과 마찬가지로 새 파티션을 생성한 후에는 udevadm settle을 실행하여 시스템이 새 파티션을 등록하고 장치 파일 (/dev/vdb2) 을 생성하도록 해야 합니다.

udevadm settle

이제 mkswap 명령을 사용하여 새 파티션 (/dev/vdb2) 을 스왑 공간으로 포맷합니다. 이 명령은 스왑으로 사용할 파티션을 초기화합니다.

mkswap /dev/vdb2

출력은 스왑 공간 생성에 대한 세부 정보 (크기 및 생성된 UUID 포함) 를 표시합니다.

Setting up swapspace version 1, size = 476 MiB (499118080 bytes)
no label, UUID=4379b167-ab39-4c83-bf7c-b28fbdb38725

새 스왑 공간을 영구적으로 활성화하도록 구성하려면 /etc/fstab 파일에 항목을 추가해야 합니다. 먼저 /dev/vdb2 장치의 UUID 를 찾습니다.

lsblk -o UUID /dev/vdb2

출력에서 UUID 를 적어두십시오. 4379b167-ab39-4c83-bf7c-b28fbdb38725와 유사합니다.

UUID
4379b167-ab39-4c83-bf7c-b28fbdb38725

nano를 사용하여 /etc/fstab 파일을 열고 스왑 파티션에 대한 새 줄을 추가합니다. YOUR_SWAP_UUID_HERE를 방금 찾은 실제 UUID 로 바꿉니다.

nano /etc/fstab

다음 줄을 파일 끝에 추가합니다.

UUID=YOUR_SWAP_UUID_HERE swap swap defaults 0 0

스왑에 대한 /etc/fstab 항목에 대한 설명:

  • UUID=YOUR_SWAP_UUID_HERE: 스왑으로 사용할 장치를 지정합니다.
  • swap: 마운트 지점 (스왑의 경우 항상 swap).
  • swap: 파일 시스템 유형 (스왑의 경우 항상 swap).
  • defaults: 스왑에 대한 표준 옵션.
  • 0: dump 옵션 (0 은 덤프 없음).
  • 0: fsck 순서 (0 은 스왑에 대한 fsck 검사 없음).

Ctrl+X를 누르고, Y를 눌러 확인하고, Enter를 눌러 파일에 쓰기하여 파일을 저장합니다.

/etc/fstab을 수정한 후에는 systemd 데몬을 다시 로드하여 새 항목을 인식하도록 합니다.

systemctl daemon-reload

마지막으로, swapon -a 명령을 사용하여 스왑 공간을 활성화합니다. -a 옵션은 swapon에게 /etc/fstab에 나열된 모든 스왑 장치를 활성화하도록 지시합니다.

swapon -a

swapon --show를 사용하여 새 스왑 공간이 활성화되었는지 확인합니다.

swapon --show

다음과 유사한 출력이 표시되어 새 스왑 파티션이 활성 상태임을 확인합니다.

NAME      TYPE      SIZE USED PRIO
/dev/vdb2 partition 476M   0B   -2

출력은 새로 생성된 스왑 파티션이 활성 상태이며 사용할 준비가 되었음을 보여줍니다.

/dev/vdb 에 추가 파티션 생성

이 단계에서는 /dev/vdb에 추가 파티션을 생성합니다. MBR(msdos) 파티션 테이블을 사용하여 하나의 XFS 파티션과 하나의 스왑 파티션을 생성했으므로, 더 많은 파티션을 위한 공간이 아직 남아 있습니다. 이제 더 큰 파티션을 관리하는 것을 보여주는 세 번째 파티션을 생성합니다.

먼저, /dev/vdb의 현재 파티션 테이블과 사용 가능한 공간을 확인해 보겠습니다.

parted /dev/vdb print

이전에 생성한 두 개의 파티션이 표시됩니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs
 2      1001MB  1501MB  500MB   primary  linux-swap

이제 추가 스토리지를 위해 2GB 의 세 번째 파티션을 생성합니다. 이 파티션은 1501MB(스왑 파티션의 끝) 에서 시작하여 3501MB(1501MB + 2000MB) 에서 끝납니다.

parted /dev/vdb mkpart primary xfs 1501MB 3501MB

Information: You may need to update /etc/fstab. 메시지가 표시될 수 있습니다.

세 번째 파티션의 생성을 확인합니다.

parted /dev/vdb print

이제 세 개의 파티션이 표시됩니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs
 2      1001MB  1501MB  500MB   primary  linux-swap
 3      1501MB  3501MB  2000MB  primary

udevadm settle을 실행하여 시스템이 새 파티션을 감지하도록 합니다.

udevadm settle

세 번째 파티션 포맷 및 영구 마운트 설정

이 단계에서는 세 번째 파티션 (/dev/vdb3) 을 XFS 파일 시스템으로 포맷하고 /backup에 영구적으로 마운트하도록 구성합니다.

먼저, /dev/vdb3 파티션을 XFS 파일 시스템으로 포맷합니다.

mkfs.xfs /dev/vdb3

출력은 XFS 파일 시스템 생성에 대한 세부 정보를 표시합니다.

meta-data=/dev/vdb3              isize=512    agcount=4, agsize=122880 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=1 inobtcount=1
data     =                       bsize=4096   blocks=491520, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

이제 이 파티션에 대한 마운트 지점 디렉토리를 생성합니다. /backup에 마운트합니다.

mkdir /backup

파일 시스템이 자동으로 마운트되도록 하려면 /etc/fstab에 항목을 추가해야 합니다. 먼저 /dev/vdb3 파티션의 UUID 를 찾습니다.

lsblk -o UUID /dev/vdb3

출력에서 UUID 를 적어두십시오. f74ed805-b1fc-401a-a5ee-140f97c6757d와 같은 고유 식별자입니다.

UUID
f74ed805-b1fc-401a-a5ee-140f97c6757d

nano를 사용하여 /etc/fstab 파일을 열고 새 항목을 추가합니다. YOUR_UUID_HERE를 찾은 실제 UUID 로 바꿉니다.

nano /etc/fstab

다음 줄을 파일 끝에 추가합니다.

UUID=YOUR_UUID_HERE /backup xfs defaults 0 0

파일을 저장합니다 (Ctrl+X, Y, Enter).

/etc/fstab을 수정한 후에는 변경 사항을 적용하기 위해 systemd 데몬을 다시 로드합니다.

systemctl daemon-reload

마지막으로, 구성이 올바른지 확인하기 위해 /backup 디렉토리를 수동으로 마운트합니다.

mount /backup

mount 명령 출력으로 마운트가 성공했는지 확인합니다.

mount | grep /backup

다음과 유사한 출력이 표시됩니다.

/dev/vdb3 on /backup type xfs (rw,relatime,seclabel,attr2,inode64,noquota)

/dev/vdb 에 우선순위가 있는 추가 스왑 파티션 생성

이 단계에서는 /dev/vdb에 추가 스왑 파티션을 하나 생성하고 파티션 테이블 제한 사항에 대해 알아봅니다. 또한 스왑 파티션에 우선순위를 할당하는 방법도 배웁니다. 여러 스왑 파티션이 활성화된 경우 시스템은 우선순위가 가장 높은 파티션을 먼저 사용합니다.

파티션 테이블 제한 사항 이해:

현재 설정은 MBR(msdos) 파티션 테이블을 사용하며, 이는 4 개의 주 파티션으로 제한됩니다. 이미 4 개의 파티션을 생성했으므로 GPT 로 변환하거나 확장 파티션을 사용하지 않고는 추가 주 파티션을 생성할 수 없습니다.

먼저, /dev/vdb의 현재 파티션 테이블을 확인합니다.

parted /dev/vdb print

지금까지 생성한 네 개의 파티션이 표시됩니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs
 2      1001MB  1501MB  500MB   primary  linux-swap
 3      1501MB  3501MB  2000MB  primary  xfs

이제 네 번째 파티션을 512MB 스왑 파티션으로 생성합니다. 3501MB(세 번째 파티션의 끝) 에서 시작하여 4013MB(3501MB + 512MB) 에서 끝납니다.

parted /dev/vdb mkpart primary linux-swap 3501MB 4013MB

Information: You may need to update /etc/fstab. 메시지가 표시될 수 있습니다.

MBR 제한 사항에 대한 참고 사항: 이 시점에서 MBR 파티션 테이블의 4-파티션 제한에 도달했습니다. 다섯 번째 주 파티션을 생성하려고 하면 Error: Can't create any more partitions. 오류가 발생합니다.

파티션 테이블을 표시하여 작업을 확인합니다.

parted /dev/vdb print

이제 네 개의 파티션이 표시됩니다.

Model: Virtio Block Device (virtblk)
Disk /dev/vdb: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos
Disk Flags:

Number  Start   End     Size    Type     File system  Flags
 1      1049kB  1001MB  1000MB  primary  xfs
 2      1001MB  1501MB  500MB   primary  linux-swap
 3      1501MB  3501MB  2000MB  primary  xfs
 4      3501MB  4013MB  512MB   primary  linux-swap

udevadm settle을 실행하여 시스템이 새 파티션을 등록하고 장치 파일 (/dev/vdb4) 을 생성하도록 합니다.

udevadm settle

이제 mkswap 명령을 사용하여 새 파티션을 스왑 공간으로 초기화합니다. /etc/fstab에 필요하므로 /dev/vdb4의 UUID 를 적어두십시오.

mkswap /dev/vdb4

/dev/vdb4의 예시 출력:

Setting up swapspace version 1, size = 488 MiB (511705088 bytes)
no label, UUID=87976166-4697-47b7-86d1-73a02f0fc803

이 스왑 공간을 특정 우선순위로 활성화하도록 구성하려면 /etc/fstab 파일에 항목을 추가해야 합니다. pri(우선순위) 값이 높을수록 선호도가 높습니다. 새 스왑 파티션에 더 높은 우선순위를 설정합니다.

nano를 사용하여 /etc/fstab을 엽니다.

nano /etc/fstab

UUID 를 적어둔 UUID 로 바꾸어 다음 줄을 파일 끝에 추가합니다.

UUID=UUID_OF_VDB4   swap    swap  pri=10    0 0

pri 옵션 설명:

  • pri=10: /dev/vdb4에 10 의 우선순위를 할당합니다. 이는 /dev/vdb2의 기본 우선순위 (-2) 보다 높으므로 시스템은 /dev/vdb2보다 /dev/vdb4를 먼저 사용합니다.

파일을 저장합니다 (Ctrl+X, Y, Enter).

/etc/fstab 항목을 인식하도록 systemd 데몬을 다시 로드합니다.

systemctl daemon-reload

swapon -a를 사용하여 새 스왑 공간을 활성화합니다.

swapon -a

swapon --show를 사용하여 스왑 공간의 올바른 활성화 및 우선순위를 확인합니다.

swapon --show

활성 스왑 파티션과 해당 우선순위가 표시된 출력이 표시됩니다. /dev/vdb2는 기본 우선순위 (-2) 를 갖는 반면, /dev/vdb4는 할당한 우선순위 (10) 를 갖습니다.

NAME      TYPE      SIZE USED PRIO
/dev/vdb2 partition 476M   0B   -2
/dev/vdb4 partition 488M   0B   10

학습 노트: 프로덕션 환경에서 4 개 이상의 파티션이 필요한 경우 다음 중 하나를 수행합니다.

  1. GPT 파티션 테이블로 변환 (최대 128 개의 파티션 지원)
  2. 확장 파티션과 그 안에 논리 파티션 사용
  3. 보다 유연한 스토리지 관리를 위해 LVM(Logical Volume Manager) 사용

재부팅 없이 영구 마운트 설정 확인

이 마지막 단계에서는 실제로 시스템을 재부팅하지 않고 영구 마운트 구성을 테스트합니다. 재부팅하면 LabEx 환경에서 연결이 끊어지기 때문입니다. 대신, 다양한 명령을 사용하여 구성을 시뮬레이션하고 재시작 후 구성이 올바르게 작동하는지 확인합니다.

먼저, 모든 마운트 항목이 /etc/fstab에 올바르게 구성되었는지 확인합니다. /etc/fstab의 내용을 표시하여 항목을 검토합니다.

cat /etc/fstab

다음과 유사한 XFS 파티션 및 스왑 공간에 대한 항목이 표시됩니다.

## ... existing system entries ...
UUID=your-vdb1-uuid /archive xfs defaults 0 0
UUID=your-vdb2-uuid swap swap defaults 0 0
UUID=your-vdb3-uuid /backup xfs defaults 0 0
UUID=your-vdb4-uuid swap    swap  pri=10    0 0
UUID=your-vdb5-uuid swap    swap  pri=20    0 0

이제 파일 시스템을 마운트 해제하고 다시 마운트하여 마운트 구성을 테스트하여 올바르게 작동하는지 확인합니다.

먼저 /archive 디렉토리를 마운트 해제합니다.

umount /archive

마운트 해제되었는지 확인합니다.

mount | grep /archive

이것은 출력을 반환하지 않아야 합니다.

이제 /etc/fstab 항목을 사용하여 다시 마운트합니다.

mount /archive

다시 마운트되었는지 확인합니다.

mount | grep /archive

다음이 표시됩니다.

/dev/vdb1 on /archive type xfs (rw,relatime,seclabel,attr2,inode64,logbufs=8,logbsize=32k,noquota)

/backup에 대해 동일한 프로세스를 반복합니다.

umount /backup
mount /backup
mount | grep /backup

다음이 표시됩니다.

/dev/vdb3 on /backup type xfs (rw,relatime,seclabel,attr2,inode64,noquota)

스왑 공간의 경우, 끄고 다시 켜서 테스트해 보겠습니다. 먼저 모든 스왑을 끕니다.

swapoff -a

스왑이 활성화되지 않았는지 확인합니다.

swapon --show

이것은 시스템 스왑이 존재할 수 있지만 사용자 지정 스왑 파티션은 표시하지 않아야 합니다.

이제 /etc/fstab을 사용하여 모든 스왑을 켭니다.

swapon -a

모든 스왑 공간이 올바른 우선순위로 활성화되었는지 확인합니다.

swapon --show

다음과 유사한 출력이 표시되어야 하며, 모든 스왑 파티션이 활성화되고 올바른 우선순위가 표시됩니다.

NAME       TYPE       SIZE USED PRIO
/dev/vda2  partition    2G   0B   -2
/dev/vdb2  partition  476M   0B   -2
/dev/vdc2  partition  244M   0B   10
/dev/vdc3  partition  244M   0B   20

마지막으로, systemd가 오류 없이 모든 /etc/fstab 항목을 처리할 수 있는지 테스트해 보겠습니다.

systemctl daemon-reload

이것은 오류 메시지 없이 완료되어야 합니다.

findmnt 명령을 사용하여 커널이 /etc/fstab에 정의된 모든 파일 시스템을 마운트할 수 있는지 확인할 수도 있습니다.

findmnt --verify

이 명령은 /etc/fstab에서 잠재적인 문제를 확인하며 오류 없이 완료되어야 합니다.

모든 작업의 최종 요약을 표시합니다.

echo "=== Final Storage Configuration Summary ==="
echo "Partition tables:"
parted /dev/vdb print
echo ""
echo "Mounted filesystems:"
mount | grep -E "/archive|/backup"
echo ""
echo "Active swap spaces:"
swapon --show
echo ""
echo "fstab entries for persistence:"
grep -E "archive|backup|swap" /etc/fstab
echo ""
echo "UUID verification:"
echo "Device UUIDs:"
lsblk -f /dev/vdb* | grep -E "vdb[1-4]"

이것으로 스토리지 파티션 및 스왑 공간 관리에 대한 랩이 종료됩니다. 시스템 재부팅 없이 서로 다른 파일 시스템으로 여러 파티션을 성공적으로 생성하고 구성하고, 영구 마운트를 설정하고, 우선순위가 있는 스왑 공간을 구성했습니다.

요약

이 랩에서는 참가자들이 LabEx VM 환경 내에서 RHEL 9 시스템의 스토리지 파티션 및 스왑 공간을 관리하는 방법을 배웠습니다. 랩은 파티션 작업을 진행하기 전에 사용 가능한 스토리지 장치 (/dev/vdb) 를 검사하고 현재 상태를 이해하는 것으로 시작되었습니다.

참가자들은 /dev/vdb를 사용하여 MBR 파티션 테이블을 생성한 다음, 여러 파티션을 생성했습니다. /archive에 마운트하기 위한 XFS 파티션, 스왑 파티션, /backup에 마운트하기 위한 다른 XFS 파티션, 그리고 우선순위 구성이 있는 추가 스왑 파티션입니다. 또한 이 랩은 MBR 파티션 테이블의 제한 사항 (4 개의 주 파티션 제한) 을 보여주고 더 많은 파티션이 필요한 시나리오를 위해 GPT 와 같은 대안에 대한 통찰력을 제공합니다.

랩의 중요한 측면은 적절한 /etc/fstab 항목을 통해 영구적인 구성을 보장하고 시스템 재부팅 (LabEx 환경의 연결을 끊는) 을 요구하지 않고 구성을 테스트하는 것이었습니다. 랩은 모든 마운트와 스왑 공간이 올바르게 활성화되는지 확인하기 위한 포괄적인 확인 절차로 마무리되어 실용적인 클라우드 기반 학습 환경에서 필수적인 RHEL 스토리지 관리 기술에 대한 실질적인 경험을 제공했습니다.