VLDB구성시 Application 특성에 맞는 RAID
1. RAID 0 는 stripe 된 중복되지않는 disk 구성이다.
적절히 구성된 striping 은 high concurrency random I/O 에서는 상당히 좋은 I/O 응답시간을 low concurrency sequential I/O 에서는 상당히 좋은
throughtput 을 제공할 것이다. Array 의 stripe size 의 선택은 trade-off 를 고려하여 신중하게 결정하여야 한다.
1) Random read performance
만일 각각의 I/O request 가 단일 striping segment 내에 존재한다면 모든concurrency level 에서는 상당히 좋은 performance 를 낸다. Stripe size 를 너무 작게하면 high concurrency level 에서 performance 가 상당히 저하 될것이다.
2) Random write performance
Random read performance 와 동일
3) Sequential read performance
Low concurrency level 에서는 fine-grained striping 은 상당히 좋은 performance 를 낸다. 만일 각각의 I/O 가 단일 striping segment 내에 존재한다면 high concurrency level 도 상당히 좋은 performance 를 낸다. Stripe size 를 너무 작게하면 high concurrency level 에서 performance 가 상당히 저하될것이다.
4) Sequential write performance
Sequential read performance 와 동일
5) Outage frequency
Poor.
Disk failure 는 fail 된 disk의 array 에 저장된 data 의 모든 application 에 대한 Oracle media recovery 동안 application outage 를 일으킬 것이다.
6) Outage duration
Poor.
RAID 0 outage 의 duration 은 failure 을 조사하고 disk drive 를 교체하고 Oracle Server media recovery 를 필요로하는 시간이다.
7) Performance degradation during outage
Poor.
Disk failure 는 Oracle media recovery 가 완료될때까지 모든 application 이 손상된 disk 를 포함하는 array 의 사용을 요구시 사용불가능 현상에 직면할 것이다.
8) Acquisition cost
Excellent.
RAID 0 는 모든 RAID 구성중 가장 적은 비용이 든다.
9) Operational cost
Fair to poor.
2. Mirroring (RAID Level 1)
Mirroring 은 VLDB architecture 중 disk outage frequency 를 줄이는 가장 좋은 tool 이다. Mirrored disk 는 매번 write call 시 data 의 copy 본을 2개이상의 disk 에 write 하는 system 이다.
약간의 write performance 저하에도 불구하고 mirrored disk 는 fault resilient disk 구성중에서 최고의 write performance 를 보인다.
Mirroring 은 높은 write 비율의 file 들을 가지는 Oracle data file 에 있어서는 매우 가치가 있다. 많은 Oracle 기술자들은 on-line, archive redo log file 들을 보호하기위하여 mirroring 을 사용한다.
1) Random read performance
Good.
만일 read-optimizing RAID 1 controller 를 사용하면 독립적인 disk 보다 더 좋 을것이다. Optimizing 된 RAID 1 controller 는 drive 가 가장작은 I/O setup cost 를 요구하는 image 와 mirror group 에 있는 다른 disk 들이 다른 read 요구를 병렬로 처리하기위하여 free 상태로 두고있는 image 만을 읽음 으로써 read 요구를 제공할것이다.
2) Random write performance
Good.
만일 read-optimizing RAID 1 controller 를 사용하면 독립적인 disk 보다 더 나쁠것이다. 비록 mirrored write 를 병렬로 실행하지만 write call 의 속도는 가장 느린 mirrored write 의 속도에 의해 결정된다. N-way RAID 1 write 의 cost 는 max(w1, w2, ..., wn) 이며 여기서 wi 이란 i번째 mirror piece 를 write 하는 cost 이다.
Read optimizing controller 는 mirrored disk drive 상태를 비 동기화 시킨다.
3) Sequential read performance
Fair.
Throughput 은 하나의 disk 의 속도에 제한적이다.
4) Sequential write performance
Fair.
Throughput 은 하나의 disk 의 속도에 제한적이다.
5) Outage frequency
Excellent.
N-way mirrored disk system 은 application outage 의 손상없이 mirror set 당 n-1 disk failure 까지 견딜수있다. 그러나 RAID 1 는 host adapter, I/O bus, RAID controller, power supply, firmware bug, software bug 들을 해결 하지는 못한다. Multiplexing 은 hardware failure 를 해결한다.
N-way multiplexed disk system 은 n-1 host adapter, I/O bus, plex 당power supply failure, application outage 손상없이 mirror set 당 n-1 disk failure 까지 견딜 수있다. Multiplexed mirroed disk 는 가장 fault-resilient 한 구성이다.
6) Outage duration
Excellent.
Multiplex 상의 하나이상의 mirror group 이나 n-1 component 에서 n-1 이하의 drive 를 포함하는 부분적인 outage 의 기간이다. 이 시간동안에는 application outage 가 없을것이다. N 개의 drive 를 가지는 mirror group 이 나 n 개의 component 를 가지는 plex 의 data loss outage 의 기간은 RAID 0 outage 의 기간과 동일하다. 이시간동안 완전한 application blackout 이 있을 것이다.
7) Performance degradation during outage
Excellent.
RAID 1 disk off-line 시 performance degradation 이 없다. 그러나 failed drive 를 교체하고 fresh drive 에대한 resilvering 작업은 mirror group 을 교체하기위하여 모든 다른 I/O 를 완료할 것이다. 이는 재구축작업 동안 교체되는 mirror group 을 읽고 쓰고 하는 application 에대한 현저한performance 저하를 초래할 것이다. N-way multiplexed, n-1 host adapter
까지, I/O bus, power supply failure 에서는 outage 동안 performance 저하가 없을 것이다.
8) Acquisition cost
Poor.
N-way mirroring 에 대한 capacity cost 는 동일한 RAID 0 capacity 보다 n 배 이다. RAID 1 의 구현은 RAID 0 구현시 필요한 host adapter 의 수에 추가하 여 특별한 RAID 1 controller 를 필요로 한다. N-way multiplexed RAID 1 은 특별한 RAID 1 controller 는 필요없지만 RAID 1 의 n 배 정도 host adapter 가 더 필요하다.
전체 multiplexed disk capacity 는 I/O subsystem host adapter bay capacity 에 의해 결정되며 이는 n-way multiplexing 이 non multiplexing 보다 n배 더 많은 adapter slot 을 소비하기 때문이다.
9) Operational cost
Fair.
|