280 likes | 591 Views
6 장 . 디스크 관리와 사용자별 공간 할당. 하나의 하드디스크를 추가하는 방법을 익힌다 . 여러 개의 하드디스크를 추가하여 RAID 로 운영한다 . 사용자별로 사용할 수 있는 공간을 제한한다. 6 장 . 디스크 관리와 사용자별 공간 할당. 하나의 하드디스크 추가 하드웨어 구성도. Mother Board. Secondary. Primary. Master. Slave. Master. Slave. IDE0:0. IDE0:1. /dev/hda1 (7GB). “ / ” 파티션. /mydata.
E N D
6장. 디스크 관리와 사용자별 공간 할당 하나의 하드디스크를 추가하는 방법을 익힌다. 여러 개의 하드디스크를 추가하여 RAID로 운영한다. 사용자별로 사용할 수 있는 공간을 제한한다.
6장. 디스크 관리와 사용자별 공간 할당 • 하나의 하드디스크 추가 • 하드웨어 구성도 Mother Board Secondary Primary Master Slave Master Slave IDE0:0 IDE0:1 /dev/hda1 (7GB) “/”파티션 /mydata /dev/hdb1 (0.1GB) /dev/hda2 (1GB) SWAP /dev/hda (8GB) /dev/hdb (0.1GB)
6장. 디스크 관리와 사용자별 공간 할당 • 하나의 하드디스크 추가(계속 …) • 전체 흐름도 하드디스크 장착 하드디스크 hdb (IDE 0:1) /dev/hdb fdisk 파티션 ext3 /dev/hdb1 reboot 하드디스크 하드디스크 파일시스템 생성 mkfs.ext3 /mydata mount /etc/fstab 에 등록
6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) • 여러 개의 하드디스크를 합쳐서 한 개의 파일시스템으로 사용 • 특징 • 작은 용량의 하드디스크 여러 개를 큰 용량의 하드디스크 한 개처럼 사용 • 서버 운영 시에 대용량의 별도 저장 공간이 필요할 때 활용 • 용어 • Physical Volume (물리 볼륨) : /dev/sda1, /dev/sdb1, /dev/sdc1 • Volume Group (볼륨 그룹): Physical Volume을 합쳐서 1개의 물리적 그룹으로 만드는 것 • Logical Volume (논리 볼륨) : Volume Group을 나눠서 논리적 그룹으로 나눔(1개 이상) • Physical Extent : PV가 갖는 일정한 블록 • Logical Extent : LV가 갖는 일정한 블록
6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) (계속…) • 하드웨어 구성 Mother Board SCSI 장치 100GB Primary Secondary SCSI 0:0 /dev/sda 100GB SCSI 0:1 /dev/sdb /lvmdata (400GB 공간) /mydata 200GB “/”파티션 SCSI 0:2 /dev/sdc SWAP
6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) (계속…) • 구현 순서 선처리 작업 pvcreate fdisk sda (SCSI 0:0) 볼륨 그룹 볼륨 그룹 /dev/sda1 LVM pvcreate vgcreate lvcreate 논리 볼륨 fdisk /dev/myVG sdb (SCSI 0:1) /dev/sdb1 LVM pvcreate fdisk sdc (SCSI 0:2) /dev/sdc1 /dev/myVG/myLG1 LVM 물리 볼륨 하드디스크 볼륨 그룹 볼륨 그룹 reboot 파일시스템 생성 mkfs.ext3 mount /lvmdata 논리 볼륨 /etc/fstab 에 등록 /dev/myVG/myLG1
Raid 6 LVM RAID 0 RAID 1 단순 볼륨 Raid 5 사용량:1G (N) 1개디스크만 사용량:2G (N*2) 사용량:2G (N*2) 사용량:1G (N/2) - 2개 이상 - 첫번째 부터 저장 - 디스크 추가 가능 • - 2개 이상 • - 동시 저장 • 가장 빠름 • Stripping • - 2개 • - 동시 저장 • 결함 허용 제공 • Mirroring 사용량: 2G (N-1) - 3개 이상 - 결함 허용 제공 - 패리티 정보 사용 - 공간효율 좋음 사용량: 2G (N-2) - 4개 이상 - RAID5의 개선 - 결함 허용 제공 - 중복 패리티 정보 사용 6장. 디스크 관리와 사용자별 공간 할당 • RAID • 종류 • 하드웨어 RAID • 소프트웨어 RAID • RAID 레벨
안녕하세요? 우재남입니다 안녕하세요? 우재남입니다` 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • LVM, RAID0, RAID1 의 저장 방식 비교 안세우입 안녕하세요? 우재남입니다 녕요재니 하?남다 총 24 Byte 사용 총 12 Byte 사용 총 12 Byte 사용
저장되는 방향 sda sdb sdc sdd 짝수가 되어야 하므로, Parity는 ‘0’ 0 0 0 0 1 1 1 1 0 1 1 0 0 0 1 1 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID5 저장 방식 (000 111 010 011 저장시의 예)
sdb의 예측값 sda sdb sdc sdd 짝수가 되어야 함 0 0 0 0 0 1 1 1 1 1 1 0 1 1 0 0 0 0 1 1 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID5 의 고장 시 작동
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID6 • RAID5 방식의 개선으로, RAID5는 1개의 패리티를 사용하지만, RAID6는 2개의 패리티를 사용 • 공간 효율은 RAID5보다 약간 떨어지지만, 신뢰도는 높아짐 • RAID 0+1 RAID 1 RAID 0 RAID 0 안하요우남니 = 안하요우남니 녕세?재입다 녕세?재입다 12 Byte 사용 12 Byte 사용 총 24 Byte 사용
Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 /dev/sdd 100GB SCSI 0:4 /dev/sde RAID 5 방식 /raid5data 100GB SCSI 0:5 /dev/sdf (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sdg 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0,1,5 의 설치를 위한 하드웨어 환경
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sda (SCSI 0:0) fdisk /dev/sda1 Linux raid auto 논리 볼륨 mdadm sdb (SCSI 0:1) fdisk /dev/sdb1 Linux raid auto /dev/md0 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid0data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md0
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 1 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sdc (SCSI 0:2) fdisk /dev/sdc1 Linux raid auto 논리 볼륨 mdadm sdd (SCSI 0:3) fdisk /dev/sdd1 Linux raid auto /dev/md1 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid1data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md1
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 5 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sde (SCSI 0:4) fdisk /dev/sde1 Linux raid auto 논리 볼륨 mdadm sdf (SCSI 0:5) fdisk /dev/sdf1 Linux raid auto sdg (SCSI 0:6) fdisk /dev/sdg1 /dev/md5 Linux raid auto reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid5data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md5
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID1 및 RAID5는 디스크 고장 후에도 정상작동 함. Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 100GB SCSI 0:4 /dev/sdd RAID 5 방식 /raid5data 100GB SCSI 0:5 (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sde
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • 디스크의 교체 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 /dev/sdd 새로운 하드디스크 (newScsi0-3.vmdk) 100GB SCSI 0:4 /dev/sde RAID 5 방식 새로운 하드디스크 (newScsi0-5.vmdk) /raid5data 100GB SCSI 0:5 /dev/sdf (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sdg
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID0 디스크의 고장 • RAID 0 의 디스크가 고장나면 부팅이 안됨. • 응급복구모드로 부팅하여서 복구해야 함. (교재의 실습 참조) • 데이터를 복구할 수는 없음
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 의 설치를 위한 하드웨어 환경 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary 100GB SCSI 0:1 /dev/sdb RAID 6 방식 “/”파티션 100GB SCSI 0:2 /dev/sdc /raid6data /raid6data SWAP 100GB (총 500MB 사용가능) SCSI 0:3 /dev/sdd 100GB SCSI 0:4 /dev/sde 100GB SCSI 0:5 /dev/sdf 100GB SCSI 0:6 /dev/sdg
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 의 구현 순서 선처리 작업 볼륨 그룹 sda (SCSI 0:0) fdisk /dev/sda1 Linux raid auto 논리 볼륨 mdadm sdg (SCSI 0:6) fdisk /dev/sdg1 Linux raid auto /dev/md6 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid6data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md6
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 에서 디스크 2개 고장 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary 100GB SCSI 0:1 /dev/sdb RAID 6 방식 “/”파티션 100GB SCSI 0:2 /raid6data SWAP 100GB (총 500MB 사용가능) SCSI 0:3 /dev/sdc 100GB SCSI 0:4 100GB SCSI 0:5 /dev/sdd 100GB SCSI 0:6 /dev/sde
Mother Board RAID 1 방식 SCSI 장치 Primary Secondary RAID 0 방식 100GB SCSI 0:0 /dev/sda 원본 “/”파티션 100GB SCSI 0:1 /dev/sdb SWAP RAID 0 방식 100GB SCSI 0:2 /dev/sdc 복사본 100GB SCSI 0:3 /dev/sdd 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0+1 하드웨어 환경
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0+1 구현 순서 볼륨 그룹(RAID0) fdisk sda (SCSI 0:0) /dev/sda1 Linux raid auto mdadm 논리 볼륨 fdisk sdg (SCSI 0:1) /dev/sdb1 Linux raid auto 볼륨 그룹(RAID1) /dev/md0 논리 볼륨 선처리 작업 mdadm 볼륨 그룹(RAID0) fdisk sdc (SCSI 0:2) /dev/sdc1 /dev/md2 Linux raid auto mdadm 논리 볼륨 fdisk sdd (SCSI 0:3) /dev/sdd1 Linux raid auto /dev/md1 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 mount /raid0+1data 논리 볼륨 /etc/fstab 에 등록 /dev/md2
6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 10 구현 순서 sda (SCSI 0:0) fdisk /dev/sda1 볼륨 그룹 Linux raid auto sdg (SCSI 0:1) fdisk /dev/sdb1 Linux raid auto 논리 볼륨 mdadm sdc (SCSI 0:0) fdisk /dev/sdc1 Linux raid auto /dev/md10 sdd (SCSI 0:1) fdisk /dev/sdd1 Linux raid auto 볼륨 그룹 볼륨 그룹 reboot 파일시스템 생성 mkfs.ext3 /raid10data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md10
6장. 디스크 관리와 사용자별 공간 할당 • 쿼터 • 정의 • 파일시스템마다 사용자나 그룹이 생성할 수 있는 파일의 용량 및 개수를 제한하는 것 • 쿼터 진행 순서 리부팅 또는 리마운팅 /etc/fstab 수정 쿼터DB 생성 # cd /raid10data # touch quota.user # chmod 600 quota.user # quotacheck –a –m # convertquota /raid10data # vi /etc/fstab 옵션부분에 defaults,usrquota추가 # mount –o remount /raid10data 시스템 적용 개인별 쿼터설정 # edquota 사용자ID # quotaon /raid10data
6장. 디스크 관리와 사용자별 공간 할당 • 하나의 디스크 추가 • LVM • RAID 0, 1, 5, 6, 0+1, 10 • 쿼터 정 리
6장. 디스크 관리와 사용자별 공간 할당 • 소개된 RAID 방식외의 다른 RAID 방식을 알아보고, Fedora Core 4에서 구현이 가능하다면 직접 구현 추가 학습