1 / 27

6 장 . 디스크 관리와 사용자별 공간 할당

6 장 . 디스크 관리와 사용자별 공간 할당. 하나의 하드디스크를 추가하는 방법을 익힌다 . 여러 개의 하드디스크를 추가하여 RAID 로 운영한다 . 사용자별로 사용할 수 있는 공간을 제한한다. 6 장 . 디스크 관리와 사용자별 공간 할당. 하나의 하드디스크 추가 하드웨어 구성도. Mother Board. Secondary. Primary. Master. Slave. Master. Slave. IDE0:0. IDE0:1. /dev/hda1 (7GB). “ / ” 파티션. /mydata.

art
Download Presentation

6 장 . 디스크 관리와 사용자별 공간 할당

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 6장. 디스크 관리와 사용자별 공간 할당 하나의 하드디스크를 추가하는 방법을 익힌다. 여러 개의 하드디스크를 추가하여 RAID로 운영한다. 사용자별로 사용할 수 있는 공간을 제한한다.

  2. 6장. 디스크 관리와 사용자별 공간 할당 • 하나의 하드디스크 추가 • 하드웨어 구성도 Mother Board Secondary Primary Master Slave Master Slave IDE0:0 IDE0:1 /dev/hda1 (7GB) “/”파티션 /mydata /dev/hdb1 (0.1GB) /dev/hda2 (1GB) SWAP /dev/hda (8GB) /dev/hdb (0.1GB)

  3. 6장. 디스크 관리와 사용자별 공간 할당 • 하나의 하드디스크 추가(계속 …) • 전체 흐름도 하드디스크 장착 하드디스크 hdb (IDE 0:1) /dev/hdb fdisk 파티션 ext3 /dev/hdb1 reboot 하드디스크 하드디스크 파일시스템 생성 mkfs.ext3 /mydata mount /etc/fstab 에 등록

  4. 6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) • 여러 개의 하드디스크를 합쳐서 한 개의 파일시스템으로 사용 • 특징 • 작은 용량의 하드디스크 여러 개를 큰 용량의 하드디스크 한 개처럼 사용 • 서버 운영 시에 대용량의 별도 저장 공간이 필요할 때 활용 • 용어 • Physical Volume (물리 볼륨) : /dev/sda1, /dev/sdb1, /dev/sdc1 • Volume Group (볼륨 그룹): Physical Volume을 합쳐서 1개의 물리적 그룹으로 만드는 것 • Logical Volume (논리 볼륨) : Volume Group을 나눠서 논리적 그룹으로 나눔(1개 이상) • Physical Extent : PV가 갖는 일정한 블록 • Logical Extent : LV가 갖는 일정한 블록

  5. 6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) (계속…) • 하드웨어 구성 Mother Board SCSI 장치 100GB Primary Secondary SCSI 0:0 /dev/sda 100GB SCSI 0:1 /dev/sdb /lvmdata (400GB 공간) /mydata 200GB “/”파티션 SCSI 0:2 /dev/sdc SWAP

  6. 6장. 디스크 관리와 사용자별 공간 할당 • LVM (Logical Volume Manager) (계속…) • 구현 순서 선처리 작업 pvcreate fdisk sda (SCSI 0:0) 볼륨 그룹 볼륨 그룹 /dev/sda1 LVM pvcreate vgcreate lvcreate 논리 볼륨 fdisk /dev/myVG sdb (SCSI 0:1) /dev/sdb1 LVM pvcreate fdisk sdc (SCSI 0:2) /dev/sdc1 /dev/myVG/myLG1 LVM 물리 볼륨 하드디스크 볼륨 그룹 볼륨 그룹 reboot 파일시스템 생성 mkfs.ext3 mount /lvmdata 논리 볼륨 /etc/fstab 에 등록 /dev/myVG/myLG1

  7. Raid 6 LVM RAID 0 RAID 1 단순 볼륨 Raid 5 사용량:1G (N) 1개디스크만 사용량:2G (N*2) 사용량:2G (N*2) 사용량:1G (N/2) - 2개 이상 - 첫번째 부터 저장 - 디스크 추가 가능 • - 2개 이상 • - 동시 저장 • 가장 빠름 • Stripping • - 2개 • - 동시 저장 • 결함 허용 제공 • Mirroring 사용량: 2G (N-1) - 3개 이상 - 결함 허용 제공 - 패리티 정보 사용 - 공간효율 좋음 사용량: 2G (N-2) - 4개 이상 - RAID5의 개선 - 결함 허용 제공 - 중복 패리티 정보 사용 6장. 디스크 관리와 사용자별 공간 할당 • RAID • 종류 • 하드웨어 RAID • 소프트웨어 RAID • RAID 레벨

  8. 안녕하세요? 우재남입니다 안녕하세요? 우재남입니다` 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • LVM, RAID0, RAID1 의 저장 방식 비교 안세우입 안녕하세요? 우재남입니다 녕요재니 하?남다 총 24 Byte 사용 총 12 Byte 사용 총 12 Byte 사용

  9. 저장되는 방향 sda sdb sdc sdd 짝수가 되어야 하므로, Parity는 ‘0’ 0 0 0 0 1 1 1 1 0 1 1 0 0 0 1 1 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID5 저장 방식 (000 111 010 011 저장시의 예)

  10. sdb의 예측값 sda sdb sdc sdd 짝수가 되어야 함 0 0 0 0 0 1 1 1 1 1 1 0 1 1 0 0 0 0 1 1 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID5 의 고장 시 작동

  11. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID6 • RAID5 방식의 개선으로, RAID5는 1개의 패리티를 사용하지만, RAID6는 2개의 패리티를 사용 • 공간 효율은 RAID5보다 약간 떨어지지만, 신뢰도는 높아짐 • RAID 0+1 RAID 1 RAID 0 RAID 0 안하요우남니 = 안하요우남니 녕세?재입다 녕세?재입다 12 Byte 사용 12 Byte 사용 총 24 Byte 사용

  12. Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 /dev/sdd 100GB SCSI 0:4 /dev/sde RAID 5 방식 /raid5data 100GB SCSI 0:5 /dev/sdf (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sdg 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0,1,5 의 설치를 위한 하드웨어 환경

  13. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sda (SCSI 0:0) fdisk /dev/sda1 Linux raid auto 논리 볼륨 mdadm sdb (SCSI 0:1) fdisk /dev/sdb1 Linux raid auto /dev/md0 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid0data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md0

  14. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 1 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sdc (SCSI 0:2) fdisk /dev/sdc1 Linux raid auto 논리 볼륨 mdadm sdd (SCSI 0:3) fdisk /dev/sdd1 Linux raid auto /dev/md1 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid1data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md1

  15. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 5 설치를 위한 구현 순서 선처리 작업 볼륨 그룹 sde (SCSI 0:4) fdisk /dev/sde1 Linux raid auto 논리 볼륨 mdadm sdf (SCSI 0:5) fdisk /dev/sdf1 Linux raid auto sdg (SCSI 0:6) fdisk /dev/sdg1 /dev/md5 Linux raid auto reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid5data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md5

  16. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID1 및 RAID5는 디스크 고장 후에도 정상작동 함. Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 100GB SCSI 0:4 /dev/sdd RAID 5 방식 /raid5data 100GB SCSI 0:5 (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sde

  17. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • 디스크의 교체 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary RAID 0 방식 /raid0data 100GB SCSI 0:1 /dev/sdb (총 200GB 사용가능) “/”파티션 100GB SCSI 0:2 /dev/sdc RAID 1 방식 SWAP /raid1data 100GB (총 100GB 사용가능) SCSI 0:3 /dev/sdd 새로운 하드디스크 (newScsi0-3.vmdk) 100GB SCSI 0:4 /dev/sde RAID 5 방식 새로운 하드디스크 (newScsi0-5.vmdk) /raid5data 100GB SCSI 0:5 /dev/sdf (총 200GB 사용가능) 100GB SCSI 0:6 /dev/sdg

  18. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID0 디스크의 고장 • RAID 0 의 디스크가 고장나면 부팅이 안됨. • 응급복구모드로 부팅하여서 복구해야 함. (교재의 실습 참조) • 데이터를 복구할 수는 없음

  19. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 의 설치를 위한 하드웨어 환경 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary 100GB SCSI 0:1 /dev/sdb RAID 6 방식 “/”파티션 100GB SCSI 0:2 /dev/sdc /raid6data /raid6data SWAP 100GB (총 500MB 사용가능) SCSI 0:3 /dev/sdd 100GB SCSI 0:4 /dev/sde 100GB SCSI 0:5 /dev/sdf 100GB SCSI 0:6 /dev/sdg

  20. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 의 구현 순서 선처리 작업 볼륨 그룹 sda (SCSI 0:0) fdisk /dev/sda1 Linux raid auto 논리 볼륨 mdadm sdg (SCSI 0:6) fdisk /dev/sdg1 Linux raid auto /dev/md6 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 /raid6data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md6

  21. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 6 에서 디스크 2개 고장 Mother Board 100GB SCSI 장치 SCSI 0:0 /dev/sda Primary Secondary 100GB SCSI 0:1 /dev/sdb RAID 6 방식 “/”파티션 100GB SCSI 0:2 /raid6data SWAP 100GB (총 500MB 사용가능) SCSI 0:3 /dev/sdc 100GB SCSI 0:4 100GB SCSI 0:5 /dev/sdd 100GB SCSI 0:6 /dev/sde

  22. Mother Board RAID 1 방식 SCSI 장치 Primary Secondary RAID 0 방식 100GB SCSI 0:0 /dev/sda 원본 “/”파티션 100GB SCSI 0:1 /dev/sdb SWAP RAID 0 방식 100GB SCSI 0:2 /dev/sdc 복사본 100GB SCSI 0:3 /dev/sdd 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0+1 하드웨어 환경

  23. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 0+1 구현 순서 볼륨 그룹(RAID0) fdisk sda (SCSI 0:0) /dev/sda1 Linux raid auto mdadm 논리 볼륨 fdisk sdg (SCSI 0:1) /dev/sdb1 Linux raid auto 볼륨 그룹(RAID1) /dev/md0 논리 볼륨 선처리 작업 mdadm 볼륨 그룹(RAID0) fdisk sdc (SCSI 0:2) /dev/sdc1 /dev/md2 Linux raid auto mdadm 논리 볼륨 fdisk sdd (SCSI 0:3) /dev/sdd1 Linux raid auto /dev/md1 reboot 볼륨 그룹 볼륨 그룹 파일시스템 생성 mkfs.ext3 mount /raid0+1data 논리 볼륨 /etc/fstab 에 등록 /dev/md2

  24. 6장. 디스크 관리와 사용자별 공간 할당 • RAID (계속 …) • RAID 10 구현 순서 sda (SCSI 0:0) fdisk /dev/sda1 볼륨 그룹 Linux raid auto sdg (SCSI 0:1) fdisk /dev/sdb1 Linux raid auto 논리 볼륨 mdadm sdc (SCSI 0:0) fdisk /dev/sdc1 Linux raid auto /dev/md10 sdd (SCSI 0:1) fdisk /dev/sdd1 Linux raid auto 볼륨 그룹 볼륨 그룹 reboot 파일시스템 생성 mkfs.ext3 /raid10data mount 논리 볼륨 /etc/fstab 에 등록 /dev/md10

  25. 6장. 디스크 관리와 사용자별 공간 할당 • 쿼터 • 정의 • 파일시스템마다 사용자나 그룹이 생성할 수 있는 파일의 용량 및 개수를 제한하는 것 • 쿼터 진행 순서 리부팅 또는 리마운팅 /etc/fstab 수정 쿼터DB 생성 # cd /raid10data # touch quota.user # chmod 600 quota.user # quotacheck –a –m # convertquota /raid10data # vi /etc/fstab  옵션부분에 defaults,usrquota추가 # mount –o remount /raid10data 시스템 적용 개인별 쿼터설정 # edquota 사용자ID # quotaon /raid10data

  26. 6장. 디스크 관리와 사용자별 공간 할당 • 하나의 디스크 추가 • LVM • RAID 0, 1, 5, 6, 0+1, 10 • 쿼터 정 리

  27. 6장. 디스크 관리와 사용자별 공간 할당 • 소개된 RAID 방식외의 다른 RAID 방식을 알아보고, Fedora Core 4에서 구현이 가능하다면 직접 구현 추가 학습

More Related