'H/W'에 해당되는 글 3건

DAS, NAS, SAN 개념정리

H/W 2009. 1. 22. 18:19
[출처] http://imgun.com/bbs/tb.php/study_etc/1

DAS [Direct Attached Storage]

서버와 전용 케이블로 연결한 외장형 저장 장치. 서버/클라이언트 환경에서의 부족한 저장 공간을 가장 쉽게 확보하는 방법으로 서버 자체에 물리적으로 외부 저장 장치를 연결하는 것이다. 네트워크에 연결된 각 서버에 외부 저장 장치를 추가함으로서 필요한 데이터를 물리적으로 가까운 곳에서 접근할 수 있고 확장이 용이하다. 하지만 데이터의 증가에 따른 외부 저장 장치의 계속적인 추가는 서버의 효율성을 저하시키는 문제가 있다. 또 다른 문제는 네트워크상의 서버가 다운되는 경우에는 중지된 서버에 장착된 저장 장치도 사용할 수 없게 되어 중앙 집중식 시스템과 같은 취약점이 있다.
 

 

NAS [Network Attached Storage]

File Server는 파일공유와 파일 서비스라는 서버로서의 기능으로부터 시작된 솔루션이다. 네트워크가 발달하지 못하고 데이터 양이 많지않던 시절에 부서별로 파일공유를 위해 또는 파일에 대한 관리의 편의를 위해 시작되었던 솔루션으로 파일공유 및 파일 서비스 기능을 위해서는 범용OS (Unix 또는 Windows NT)에서 제공되는 일부분의 기능(NFS 또는 CIFS)을 이용하였고 데이터 저장장치는 주로 서버에 내장된 디스크를 사용하였다. 그리고 서버/클라이언트 구조로 파일서버가 서버로서의 역할을 각 End-user의 단말(PC 또는 Workstation)이 클라이언트로서의 역할을 하도록 구현되었다. 그런데 세월이 흐르면서 사용자 환경이 변하였다. 파일공유 및 파일 서비스를 위한 데이터 용량이 폭증하였다는 점, 변화는 파일공유 및 파일서비스를 위한 I/O가 보다 높은 대역폭과 속도를 요구한다는 점이다.
파일서버의 한계를 극복한 것이 NAS(Network Attached Storage)이다. NAS는 저장장치의 기능을 강조한 것으로 저장장치 부분의 하드웨어적 성능/기능뿐 아니라 소프트웨어적 기능이 예전의 파일서버와는 차별화 되었다. 그리고 I/O측면에서도 범용 OS대신에 파일서비스에 특화된 전용의 OS를 채용함으로써 보다 나은 I/O 성능을 제공하고 있다. 그리고 역할에 있어서도 기존의 파일서버가 End-user 단말에 대한 파일서비스를 제공하는 역할을 강조한 반면 NAS End-user단말에 대한 기존 파일서버의 역할뿐만 아니라 애플리케이션 서버의 데이터를 네트웍(LAN)을 통해 저장하여 네트웍이 연결된 곳에서는 언제 어디서라도 스토리지를 접속해서 사용할 수 있는 애플리케이션 서버에 대한 저장장치로서의 역할도 하고 있다
NAS를 이름 그대로 해석해 보면 네트웍(LAN)에 접속된 스토리지이다. 과연 스토리지를 LAN에 붙일수 있을까? 말을 바꾸어 보자. 스토리지는 SCSI 프로토콜을 기반으로 통신을 하고 LAN TCP/IP 프로토콜을 기반으로 통신을 한다.
 


 
NAS 장점은 파일공유다. 여러 애플리케이션 서버들이 LAN 통해 NFS또는 CIFS 같은 파일 서비스 프로토콜로 전용파일서버에 접속하여 파일에 대한 서비스를 요청하면 단일 파일서버가 요청에 따라 파일서비스를 하게 되므로써 NAS 저장된 파일이 모두 전용파일서버 한곳에서 관리됨으로써 파일들에 관한 정보들의 Consistency라든가 locking 문제가 없이 파일을 여러 서버들이 공유할 있게 된다.
NAS의 단점은 성능과 DB에서 사용할 때의 문제점이다. 성능상의 단점중의 한 요인은 Latency Time이다. NAS는 애플리케이션 서버에서 전용파일서버까지 네트웍으로 접속되고 전용파일서버에서 스토리지사이는 채널로 접속되어 채널로만 접속되는 DAS또는 SAN에 비해 접속단계가 늘어남으로서 Latency Time이 더 걸리게 된다. 물론 NAS LAN에서의 Latency time에서 단점을 Cache에서 그리고 저장장치 부문에서의 성능으로 보충하여 JBOD(Just Bunch of Disk: 저급의 디스크 스토리지를 의미)나 성능이 떨어지는 내장형 Disk보다 빠를 수 있다. 그러나 동급의 디스크 스토리지로 비교했을때는 DAS SAN보다 성능이 조금 떨어지는 것이 보통이다. 특히 I/O가 많은 대용량의 DB인 경우, 그리고 대규모 Batch Job을 수행해야 하는 경우에는 이와같은 성능차이가 문제가 된다. 또한 DB의 경우 전용 파일서버에서의 Caching기능 때문에 전용파일서버에 장애가 일어난 경우 Data consistency가 문제가 될 수도 있다.

SAN [Storage Area Network]

'광저장장치영역네트워크'로 번역되고 '스토리지 에어리어 네트워크'라고도 한다. 특수 목적용 고속 네트워크로서, 대규모 네트워크 사용자들을 위하여 서로 다른 종류의 데이터 저장장치를 관련 데이터 서버와 함께 연결해 별도의 랜(LAN:근거리통신망)이나 네트워크를 구성해 저장 데이터를 관리한다.
정보기술(IT)이 급속히 발전하면서 기업들의 가장 큰 고민 가운데 하나는 많은 데이터를 어떻게 효율적으로 저장할 수 있는가 하는 것이었다. 기존저장 방법은 장비에 스토리지를 붙여서 쓰는 DAS(direct attached storage:직접연결스토리지)를 이용하였으나, 저장할 데이터와 늘어나는 데이터가 한 공간에 존재하므로 데이터의 전송 속도가 떨어지는 단점이 있다. SAN은 이러한 단점을 극복하기 위한 목적으로 1990년대 말부터 개발되기 시작해 채 몇 년도 안 되어 새로운 데이터 저장기법으로 떠올랐다. 서로 다른 종류의 저장장치들이 함께 연결되어 있어 모든 사용자들이 공유할 수 있을 뿐 아니라, 백업·복원·영구보관·검색 등이 가능하고, 한 저장장치에서 다른 저장장치로 데이터를 이동시킬 수 있다는 장점이 있다. SAN 외에 별도로 랜이나 네트워크를 구성해 저장 데이터를 관리하는 방법으로 NAS(network attached storage:네트워크연결스토리지) 등이 있지만, 2002년 현재 SAN 기법이 보편화되어 시장의 50% 이상을 차지하고 있다. 더욱이 갈수록 대형화하면서 고성장세를 보이고 있다.
하지만 SAN 을 구축하기 위해서는 NAS 스토리지에 비해서 많은 비용과 장비들의 투자가 필요하고, 기존 시스템들의 업그레이드가 필수적이므로 몇가지 제약이 있다.
SAN 을 이기종간의 여러 서버에서 하나의 스토리지를 공유하기 위해서는 SAN 메니지먼트 소프트웨어가 별도로 필요로 하고 , NAS 와는 달리 SAN 네트워크를 별도로 구축을 해야 한다는 단점이 있다.
SAN은 서버와 스토리지 사이의 채널 접속에 파이버 채널 스위치를 넣어 네트웍의 개념을 도입한 것이다. 그렇다면 왜 SCSI Switch가 아닌 파이버채널 스위치인가? SCSI의 경우 Open System의 채널 인터페이스이긴 하지만 접속 거리가 최대 25m로 네트웍으로 구성하기에는 거리제약이 있으며 스위칭을 위한 고려가 전혀 되어있지 않는 인터페이스란 점 때문에 파이버 채널을 SAN의 표준으로 정하게 되었다.
파이버 채널 스위치를 중간에 넣음으로서 서버의 접속 포트 하나에서 여러대의 스토리지를 접속할 수 있고 또한 스토리지의 접속 포트 하나에 여러 서버가 접속할 수 있는 유연성이 생기게 된다. 그러나 여러 서버에서 파일 공유를 하려는 측면에서 생각해 보면 동일 파일 시스템에 대한 관리를 각각의 서버에서 해야 하기 때문에 Locking 문제와 Consistency 문제가 생기게 되고 그런 이유로 파일공유가 되지 않는다. 그렇다면 SAN에서 말하는 공유는 무엇일까? 그것은 지금현재로는 서버측면에서의 스토리지 공유 또는 스토리지 측면에서의 서버 공유를 의미할 뿐이다. 물론 SAN에서 궁극적으로 추구하는 목표에는 파일시스템의 공유가 포함되어 있으며 그러한 노력이 현재 진행되는 있는 것은 사실이지만 파일시스템의 공유라는 목표를 달성하기에는 아직도 많은 시간이 필요하리라고 생각된다
 

 

비교자료

NAS File Server 비교

 
NAS
File Server
관점
스토리지
서버
역할
파일서버, 스토리지로서의 역할
파일서버 역할
저장장치형태
전용 OS
범용 OS
가용성
저장된 정보의 무중단 활용 측면에서의 가용성을 중시
정보 보호 보다는 파일서비스와 파일공유 기능에 중점
파일서버 성능
보통
데이터 용량
500GB 이상
200GB이하
파일 서비스를 위한 프로토콜
NFS, CIFS 동시 지원
사용 OS에 따라 NFS, CIFS 지원

NAS SAN 비교

 
NAS
SAN
구성요소
어플리케이션 서버, 전용 파일 서버, 스토리지
어플리케이션 서버, 스토리지
접속장치
LAN 스위치
Fibre Channel 스위치
스토리지 공유
가능
가능
파일시스템 공유
가능
불가능
파일시스템 관리
파일서버
어플리케이션 서버
접속 속도 결정 요인
LAN과 채널 속도에 좌우됨
채널 속도에 좌우됨
비고
파일공유를 위한 전통적 솔루션
유연성, 확장성, 편의성이 가장 뛰어난 구성

DAS, NAS, SAN 비교

 
DAS
NAS
SAN
구성요소
어플리케이션 서버, 스토리지
어플리케이션 서버, 전용파일 서버, 스토리지
어플리케이션 서버, 스토리지
접속장치
없음
이더넷 스위치
파이버채널 스위치
스토리지
공유
가능
가능
가능
파일시스템
공유
불가능
가능
불가능
파일시스템
관리
어플리케이션 서버
파일 서버
어플리케이션 서버
접속 속도
결정요인
채널속도
LAN과 채널속도
채널속도
특징
소규모 독립된 구성에 적합
파일 공유를 위한 가장 안정적이고 신뢰성 높은 솔루션
유연성/확장성/편의성이 가장 뛰어남
 

용어 : Fibre Channel

SAN(Storage Area Network)에 사용되는 표준화 채널로서 FWU(Fast Wide Ultra) SCSI의 뒤를 이을 차세대 고속 인터페이스다. 1992년에 휼렛패커드와 선마이크로시스템스•IBM 3개 업체가 FCSI(Fibre Channel Systems Initiative)를 구성했고, IP SCSI의 공조에 관심을 두고 표준화 작업을 진행하여 1998년에 표준안이 마련되었다. 2003년 현재 FCA(Fibre Channel Association) FCLC (Fibre Channel Loop Community)에서 관리한다.
FWU SCSI보다 4∼5배 빠른 1Gbps의 속도로 데이터를 전송할 수가 있으며, 사용되는 프로토콜이 SCSI와 호환되어 기존의 장치를 그대로 사용할 수 있는 장점이 있다. 또 거리 제한도 거의 없어 서버나 JBOD(Just a Bunch Of Disks; RAID 기능이 없는 하드디스크드라이브 세트)를 데이터센터에서 최대 8.6㎞나 떨어진 곳에 설치할 수도 있다. 설치 거리는 점차 늘어날 것으로 보인다.
이 기술로 백본랜을 구축할 경우, 수백 테라바이트의 용량을 보유한 중앙집중식 저장장치 팜(Farm)을 구축할 수 있고, 재해 복구를 위한 외부의 미러링도 가능하다. 클라이언트/서버 컴퓨팅에서 요구되던 분산 아키텍처를 지원하고, 폴트톨러런스(Fault Tolerance)와 자체 복구 기능도 지녀 네트워크 연결을 유연하게 해 준다. , 네트워크 확장을 거의 무한대 수준으로 끌어올리는 등 네트워크의 성능 저하를 최소화시킨다.
블로그 이미지

유효하지않음

,


출처 : NETWORK TIMES 

NDMP 프로토콜로 백업 용이
NAS G/W 활용한 랜 프리 백업 유용
D2D 백업 원격지 복제 등 NAS 기반 데이터 보호 방안 시선집중


오늘날 대부분의 전산 업무는 온라인 중심으로 변화됐으며, 24×365 시스템의 구축을 요구하고 있다. 또 하나는 이와 같이 만들어진 전산 환경에 대해 여러 가지 자연, 인위적인 재해로부터 보호받기 위해 미러링 솔루션으로 원격지 복제 시스템을 운용한다. 이것은 과거와 달리 시설투자에 2배 이상의 비용이 들어가는 것을 의미하고, 관리도 그만큼 복잡해지는 것을 뜻한다. 이처럼 점점 복잡해지는 IT 환경을 어떻게 하면 쉽게 관리할 수 있을까 하는 것이 풀어야할 숙제다. 이 글에서는 NAS를 통한 DR 구성에 대해 살펴보자.
이용상 한국IBM 스토리지 사업본부 부장·yongsang@kr.ibm.com


요즘은 홈쇼핑에서도 NAS(Network Attached Storage)를 팔고 있다. 기업용이 아닌 개인용 네트워크 스토리지가 그것이다. 150GB, 300GB 등 개인이 사용하는 용량치고는 제법 크다. 과거 몇 년 전에는 소규모 기업이나 그룹에서 사용하는 만큼의 용량을 개인용으로 사용하고 있는 것이다. IT 기술의 발전으로 고성능, 고용량의 스토리지를 훨씬 저렴한 가격으로 구입이 가능한 세상이 됐다.
90년대에 NC(Network Computing)가 등장하면서 네트워크 스토리지가 각광을 받을 것으로 예상했지만 바로 유행을 타지는 못했다. 그러다가 90년 후반에 접어들면서 NAS가 등장하게 됐는데. NAS는 용어 자체에서 느낄 수 있는 것처럼 네크워크 상에 스토리지를 접속해서 여러 사용자가 데이터를 고속으로 공유할 수 있게 하는 네트워크를 이용한 저장방식이다. 스토리지를 서버에 직접 붙여 운영하는 DAS(Direct Attached Storage)보다 한 단계 진보된 스토리지라고 보면 맞을 것 같다.


NAS의 등장 배경
현시점에서 NAS를 언급하는 것은 약간 지나간 얘기를 하는 것 같지만 오늘날 IT 환경이 SAN(Storage Area Network)을 통한 서버와 스토리지의 통합을 하고 있는 것이 한참인 시점에서 놓고 보았을 때, 그 중간 과정쯤 된다고 보면 될 것 같다.
NAS가 나오게된 배경을 살펴보면 지금 인터넷망의 근간인 TCP/IP(Transmission Control Protocol/Internet Protocol)의 발전에 따른 산출물 중 하나라고 볼 수 있다. TCP/IP는 美 국방성의 전산망인(ARPAT)에서 개발된 프로토콜 중의 하나다. 1983년 ARPAT를 TCP/IP로 대체했고, 현재의 오픈 운영 체계인 유닉스에서 TCP/IP를 기본으로 채택하게 됨에 따라 급속도로 발전하고 보급됐다.
통신 기술의 발전으로 최근에는 기가비트가 지원되는 NAS 제품들이 출시돼 파이버 채널(100MB)을 이용하는 SAN과 시장에서 경합을 벌이고 있다. 그러나 TCP/IP를 프로토콜로 사용하는 이더넷 상에서의 데이터 이동은 트래픽이 몰릴 경우 병목현상(Bottleneck) 등의 문제가 있어, SAN과의 경합에서 불리한 위치에 있다고 볼 수 있다. 실제로 고객은 해당 기업의 규모, 투자 비용 등을 고려해 IT 환경을 NAS와 SAN으로 이원화시켜 가져가는 경우가 많다.



DAS-NAS-SAN
과거에는 개인용 PC건 기업용 대형 호스트건 스토리지를 직접 서버에 붙여 운영하는 것이 대부분이었다. 이와 같이 스토리지와 서버간에 SCSI(Small Computer System Interface: 주변기기를 붙이기 위한 직렬 표준 인터페이스) , FC(Fiber Channel: 광전송 방식), ESCON(Enterprise System CONnection: IBM의 메인프레임용 인터페이스) 등의 매개체를 통해 붙여 사용한 것이 DAS 방식이다.
그러나 DAS 방식은 스토리지가 붙어있는 해당 서버에서만 붙어 있는 스토리지를 사용할 수 있는 제약점이 있었다. 그러다가 이더넷의 발달로 TCP/IP 네트워크상에 고속의 I/O 처리가 가능한 NAS를 붙여 사용할 수 있게 됐다. NAS는 이더넷 상에 손쉽게 붙일 수 있다는 것이 장점이고, 단점으로는 파일 단위로 I/O를 하므로 블록 단위로 I/O를 하는 SAN에 비해서는 성능이 떨어질 수밖에 없다. 그리고 이더넷 상에 많은 클라이언트와 서버가 물려 있을 경우 동일한 네트워크를 이용해 데이터가 왔다갔다해야 하므로 I/O 트래픽이 심한 경우 네트워크의 병목현상이 발생해 성능의 저하를 가져올 수 있다.
이것을 해소하기 위해 기가비트가 지원되는 NAS 제품들이 나와있기는 하지만 근본적인 치유책이 될 수는 없다. 이러한 문제들을 보완하기 위한 솔루션인 SAN은 고속의 스위치를 이용 서버, 스토리지간에 FC를 이용한 고속 통신을 보장함으로서 이더넷을 데이터 통신의 경로로 사용하고 있는 NAS와는 달리 병목 현상이 생기는 것을 방지할 수 있다. 또 한편 스토리지 풀(Pool) 구성이 가능해 서버 사이에 SAN 네트워크에 연결돼 있는 모든 스토리지를 공유해 사용할 수 있다는 장점이 있다. 요즈음에는 이러한 SAN을 통해 스토리지를 통합해 복잡한 IT환경을 단편화해 나가는 것이 추세다.

iSCSI
iSCSI(internet Small Computer Systems Interface)는 스토리지와 IP 네트워크를 통합하기 위한 프로토콜이라고 이해하면 쉽다. 즉 IP 네트워크상에서 SCSI 커맨드 상태로 블록 단위로 I/O를 일으키기 때문에, 마치 DAS와 같은 형태로 스토리지를 네트워크에 붙여서 사용하는 것이라고 볼 수 있다. iSCSI는 전송 매체가 SCSI 형태로 날아다니므로 컨버전(conversion) 작업이 따로 필요하지 않아 NAS 방식의 스토리지에 비해 속도가 빠르다. 그리고 SAN과의 인터페이스가 가능해 IP와 SAN간의 통신을 할 수 있는 환경을 제공함으로서 운용의 폭을 넓힐 수 있는 장점이 있다.

NAS vs. NAS 게이트웨이
NAS와 NAS 게이트웨이간의 차이는 <그림 1>에서와 같이 NAS에 들어있는 스토리지와 컨트롤러 대신에 SAN과의 인터페이스를 제공한다는 것이다. 그러므로 이더넷에 붙여서 NAS로서의 서비스를 클라이언트 쪽에 해주면서도 실제 스토리지는 SAN을 통해 공급받은 스토리지 풀(Pool)에서 제공받을 수 있는 이점이 있다.
그리고 확장성 면에서도 NAS는 스토리지 공간이 필요할 때마다 NAS를 계속 붙여서 확장을 해야 하지만, NAS 게이트웨이에서는 SAN 스토리지 풀에서 필요할 때마다 언제든지 스토리지 공간을 공급받을 수 있다. 최근 추세는 점차 NAS에서 NAS 게이트웨이로 바뀌어 가고 있으며, 이를 통해 IP와 SAN간에 통합을 시도한다.
<그림 2>는 NAS 어플라이언스의 구성도로, NAS 스토리지 공간을 확장하기 위해서는 NAS를 계속 늘려가야 하는 구조다. 반면 <그림 3>은 NAS 게이트웨이 구성도로, SAN 스토리지 풀을 바라볼 수 있어 스토리지의 증설이 필요할 때 NAS 자체의 스토리지를 확장하는 것이 아니라, SAN 스토리지 풀에 디스크들을 추가한 후 NAS 게이트웨이에 할당해 주면 된다. 따라서 스토리지 확장성이 좋고 IP와 SAN간에 통신을 해 줌으로서 IP와 SAN의 통합을 이뤄낼 수 있다.


NAS를 통한 DR 방안
지금까지는 NAS의 기본 개념과 다른 솔루션과의 차이점 등을 알아봤다. 그럼 이제부터 본격적으로 NAS를 통한 DR(Disaster Recovery) 솔루션에 대해 살펴보자. 오늘날 대부분의 전산 업무는 온라인 중심으로 변화됐으며, 24×365 시스템의 구축을 요구하고 있다.
또 하나는 이와 같이 만들어진 전산 환경에 대해 여러 가지 자연, 인위적인 재해로부터 보호받기 위해 미러링(Mi-rroring) 솔루션으로 원격지 복제 시스템을 운용한다. 이것은 과거와는 달리 시설투자에 2배 이상의 비용이 들어가는 것을 의미하고, 관리도 그만큼 복잡해지는 것을 뜻한다. 이처럼 점점 복잡해지는 IT 환경을 어떻게 하면 쉽게 관리할 수 있을까 하는 것이 풀어야할 숙제다.

NDMP 백업의 한계와 대안
NDMP(Network Data Management Protocol)는 많은 NAS 벤더들이 백업/복구를 위해 만든 프로토콜이다. 대부분의 NAS 어플라이언스 속에 들어 있는 운영체계가 백업/복구 등의 기능을 포함하고 있지 않기 때문이다. 이러한 스토리지 관리 기능을 추가로 기능 부여한 것이 NDMP이다.
네트워크어플라이언스나 EMC는 이러한 기능을 이용해 백업을 받고 있다. 그러나 IBM의 경우 NAS 제품 자체가 파워 칩(Power Chip)을 장착한 AIX 5L운영 체제를 사용하고, 그 자체에 백업/복구 등의 기능을 가진 TSM(IBM Tivoli Sotrage Manager)의 에이전트 모듈을 포함하고 있어 굳이 NDMP가 필요하지 않다.
TSM 에이전트는 TSM을 사용하고 있는 기존의 랜 또는 SAN 네트워크에서 쉽게 사용될 수 있고, 베리타스 또는 레가토와 같은 벤더에서 AIX 5L에서 가동되는 소프트웨어 클라이언트나 에이전트가 있다면 이것을 바로 IBM의 NAS에서 돌릴 수 있는 장점이 있다.
그래서 호환성과 이식성을 따져 봤을 때는 NDMP보다는 AIX 5L과 같은 오픈 운영 체제를 갖고 있는 NAS 제품이 사용자에게 유연성(Flexibility)을 더 쉽게 보장해 준다고 볼 수 있다.

NAS 게이트웨이와 랜 프리 백업
NAS 게이트웨이가 갖고 있는 기능 중 하나가 랜 프리 백업(LAN Free Backup)이다. 기존의 DAS 방식에서 데이터 백업을 받기 위해서는 DAS 스토리지로부터 서버를 거쳐 이더넷을 통해 데이터가 저장소로 가야 한다. 이는 이더넷 상에 병목현상이 심하게 걸릴 수 있는데, 이러한 문제점을 보완하기 위해 나온 방식이 바로 랜 프리 백업이다. 랜 프리 백업의 이점은 다음과 같다.

1. 스토리지 자원 사용률을 향상시킬 수 있다.
2. 랜 트래픽을 줄일 수 있다.
3. 백업 윈도를 보다 자유롭게 운영할 수 있다.
4. 스케쥴링과 정책에 의한 관리를 할 수 있다.
5. 저성능의 랜 네트워크 환경에서는 더 좋은 백업 성능의 진가를 발휘할 수 있다.

이제 NAS 게이트웨이를 이용한 랜 프리 백업의 구조를 살펴보자. <그림 4>에서 동작원리를 살펴보면(TSM을 사용한 경우임),

1. TSM 클라이언트(NAS 게이트웨이)는 TSM 서버에게 백업을 하겠다고 통보한다.
2. TSM 클라이언트는 디스크로부터 데이터를 요구한다.
3. TSM 클라이언트는 백업할 데이터를 가져온다.
4. TSM 클라이언트는 가져온 데이터를 바로 테이프 장치로 보낸다.
5. TSM 클라이언트는 메타 데이터(데이터 변경에 대한 정보가 들어있는)를 TSM 서버에게 알려 준다.

이와 같은 과정을 거쳐 SAN 스토리지 풀에 들어있는 저장소로 랜 프리 백업이 이뤄진다. 여기에서 알 수 있는 사실은 데이터의 흐름이 랜을 거치지 않고 SAN 네트워크 상에서 이동해 디스크에서 테이프로 바로 이동한다는 것이다.


NAS 게이트웨이를 통한 스토리지간 IP 미러링 솔루션
NAS 게이트웨이와 SVC(IBM SAN Volume Controller)를 같이 사용하면, 이기종 스토리지간에도 NAS 게이트웨이의 볼륨을 사용할 수 있다. 오늘날의 IT 환경은 특정 벤더의 제품에 묶이는 것을 꺼려한다. 그러다 보니 여러 벤더의 스토리지가 SAN에 묶여 운용되는 것이 현실이다.
그러나 이런 경우 여러 벤더의 스토리지가 묶이다 보니 운영상의 복잡함이나 통합에 있어 어려움이 있다. NAS 게이트웨이를 통한 스토리지간 IP 미러링 구성은 이와 같은 복잡한 환경을 쉽게 만들 수 있는 장점이 있다. 그리고 NAS에서 제공되는 미러링 솔루션으로, 추가 비용 없이 이기종 스토리지간의 데이터 보관이 가능한 것이 특징이다.

NAS 게이트웨이를 이용한 미러링 오버 IP
NAS를 통한 원격지 복제는 대부분의 스토리지 벤더가 엔터프라이즈급에서 구현하고 있는 솔루션과 유사하다고 보면 된다. IBM의 PPRC, EMC의 SRDF, HDS의 트루카피 등이 그러한 솔루션이다. 이러한 DR 솔루션은 대략 동기(SYNC)와 비동기(ASYNC) 방식으로 나뉘는데, 그 차이는 다음과 같다. 참고로 이때 이뤄지는 원격 미러링 모드는 공통적으로 크게 2가지로 구별되며, 나머지는 벤더마다 약간씩의 차이가 있다. 이것을 정리하면 다음과 같다.

1. 동기 방식
로컬 사이트에 데이터를 저장한 후 애플리케이션에게는 데이터가 저장됐음을 알린다. 동시에 데이터는 원격 사이트에 저장하려고 하는데, 이때 약간의 지연 시간이 발생한다. 애플리케이션 입장에서는 데이터가 저장된 것처럼 보이지만, 실제로 원격 사이트에서는 데이터 저장이 완전히 끝나지 않을 수 있다. 이러한 이유로 데이터의 손실이 생길 수 있다.
2. 비동기 방식
원격 사이트에 데이터를 먼저 저장한 후, 로컬 사이트에 데이터를 저장한다. 그 다음 애플리케이션에게 해당 데이터가 기록(Write)됐음을 알린다. 이러한 방식은 데이터의 손실은 없지만, 얼마나 빨리 원격 사이트에 데이터를 저장하느냐가, 온라인 중에 있는 로컬 사이트의 업무 시간 지연을 최소화시킬 수 있는지와 관련 있는 요소 중 하나다.

3. MWC(Mirror Write Consistency) 방식
로컬 사이트에 데이터 저장과 동시에 원격 사이트에 데이터를 저장한다. 이때 원격 사이트에서 데이터 저장의 신호가 오기 전까지는 로컬 쪽에서 기록을 끝낸 것으로 보지 않는다. 동기 방식보다는 속도가 빠르고 비동기 방식보다는 유연하게 데이터를 관리할 수 있다.
NAS 게이트웨이는 IP 통신을 통해 로컬 사이트의 데이터를 원격 사이트의 저장공간으로 원격지 복제를 실시하게 된다. 그러나 NAS 게이트웨이를 통한 원격 미러링인 경우 IP 랜망을 통해 데이터 이동이 일어나므로 병목이 발생할 수 있는 가능성과 고속의 랜 네트워크 구성이 필수적이다.

맺음말
지금까지 NAS의 기본적인 개념에서부터 유사 솔루션, 그리고 DR까지 살펴봤다. NAS를 단순 네트워크에 붙어있는 스토리지로만 생각해서는 안된다. NAS 게이트웨이를 통해 랜과 SAN의 통합에 유용한 솔루션임을 인지해야 한다.
오늘날 대부분의 기업은 SAN으로 통합하고 있으며, 이는 여러 면에서 IP를 통한 스토리지 풀을 갖는 것보다는 이점이 있다. 그러나 IP에 비해 아직 벤더별 표준화가 덜 돼 있는 상태이며 SAN을 구축하기 위한 인프라 구축 비용이 만만치 않게 든다.
반면 IP 스토리지 네트워킹 기술은 현재 구축돼 있는 랜망을 그대로 사용할 수 있기 때문에 인프라 구축 비용이 적게 들며, IP에 대해서는 대부분이 표준화 돼 있어 이식성이 좋다. 그러한 이유 때문에 고가용 고성능의 엔터프라이즈급 시장에서는 SAN을 선호하고 있고, 미드레인지급의 시장에서는 적은 비용으로 동일한 효과를 낼 수 있는 IP 스토리지 네트워킹 방식을 채택하기도 한다.
그러나 현재 시점에서 재난복구(DR)에 대한 수요는 어느 정도 공급이 됐다고 보여진다. 몇 년 전부터 정부에서 금융권을 중심으로 재해 복구 솔루션에 대해 구축 의무를 뒀기 때문에 이미 많은 고객들은 그러한 솔루션을 갖추고 있는 상태다. 따라서 이러한 DR 시장이 갑자기 늘어나기를 기대하기는 어렵다.


블로그 이미지

유효하지않음

,

RAID 1-6 레벨 이해하기

H/W 2009. 1. 20. 13:26
[출처] 다음,네이버 검색사이트

1부터 6까지의 RAID 레벨의 장단점을 알아보고, 스토리지를 구성할 때 목적에 맞는 최적의 레벨을 찾아보자.

데이터는 많은 조직에서 가장 중요하고 요즘 같은 인터넷 시대에는 데이터를 빠르고 믿을 수 있게 접근하는 것이 매우 중요하다. 그렇게 조직은 대부분 데이터를 무결하게 유지하기 위해 RAID의 어떤 레벨을 사용한다.

요즘은 대부분 그렇지만 RAID 5가 쉽고 최선일 것 같기 때문에 얼마나 많은 서버에 RAID 5를 적용하고 있을까? 대부분의 경우 RAID 5가 옳은 선택이지만 쓰기 성능을 고려한다면 다른 RAID 레벨이 최선일지도 모른다.

지금 얼마나 많은 사람들이 RAID 10과 50를 즉석해서 설명할 수 있을까? 새로 발명된 RAID 레벨이 RAID 5의 단점을 보완할 수 있고 아직도 스토리지 시스템에서는 많은 것을 예비용으로 사용한다. 이 글에서 기본적인 RAID 레벨의 장단점을 소개하고 다음 글에서 나는 RAID 10같이 네스티드(nested)라고 불리는 좀 더 복잡한 RAID 레벨을 소개하려고 한다. (주: http://www.acnc.com/04_00.html에서 각 RAID 레벨의 그림을 볼 수 있다.)

RAID 0(디스크 스트라이핑)
* 최소 드라이브 개수 : 2
* 최대 용량 : 디스크의 수 x 디스크의 용량
* 설명 : 데이터를 블럭으로 쪼개서 저장하는데 각 블럭은 다른 디스크로 나뉘어 저장된다.

* 장점 : 매우 빠르다. 데이터는 여러 개의 "모터(spindles)"로 스토리지에서 읽고 쓴다. 즉, I/O 로드가 분산되는 것을 의미하기 때문에 매우 빠르다. 이론적으로 디스크를 추가하는 족족 성능은 향상된다. 보통 엄청난 성능이 필요할 때 사용하는데 성능이 정말 좋은지 알아 보기 위해 스토리지를 아이오미터(IOmeter)같은 도구를 사용하여 확인한다.
* 단점 : 드라이브 하나가 고장 나면 이 RAID 레벨은 어떤 안전장치도 없기 때문에 천체 어레이가 고장 날 수 있고 디스크를 추가할 수록 위험이 증가한다.(주: 어레이는 여러 개의 디스크 배열을 의미)


RAID 1 (디스크 미러링)
* 최소 드라이브 개수 : 2
* 최대 용량 : (디스크의 수/2) x 디스크의 용량
* 설명 : 스토리지에 저장되는 모든 데이터는 두 개의 물리적인 디스크에 각각 저장되고 모든 데이터는 중복된다.

* 장점 : 드라이브 하나가 고장 나면 똑같은 내용의 다른 드라이브가 하나 더 있기 때문에 매우 안전하다. RAID 1은 읽기 성능이 단일 드라이브에서의 성능과 같거나 훨씬 좋다.
* 단점 : 각 드라이브는 미러링되기 때문에 전체 용량의 절반밖에 사용하지 못한다. 드라이브 두 개에 동일한 데이터를 써야 하기 때문에 쓰기 성능이 나빠질 수 있지만 아직 다른 RAID 레벨의 쓰기 성능보다는 훨씬 낫다.


RAID 2: 이 레벨은 더 이상 사용되지 않는다

RAID 3(패리티를 사용하고 디스크를 병렬로 처리한다)
* 최소 드라이브 개수 : 3
* 최대 용량 : (디스크의 수 - 1) x 각 디스크의 용량
* 설명 : 데이터는 바이트 단위로 쪼개져서 모든 디스크에 균등하게 나뉘어 저장되고 패리티 정보는 별도의 전용 디스크에 저장된다.

* 장점 : 한 개의 드라이브가 고장 나는 것을 허용하며 순차적 쓰기(sequential write) 성능과 순차적 읽기(sequential read) 성능이 우수하다.
* 단점 : 잘 사용되지 않고 문제를 해결하는 것이 어려울 수 있다. 하드웨어 RAID가 되어야 실제로 쓸만하다. RAID 3은 보통 매우 효율적이지만 임의 쓰기(random write) 성능이 나쁘고 임의 읽기(random read) 성능은 꽤 좋다. .


RAID 4 (각 디스크는 패리티 블럭을 공유한다)
* 최소 드라이브 개수 : 3
* 최대 용량 : (디스크의 수 - 1) x 디스크의 용량
* 설명 : 모든 파일은 블럭으로 쪼개지고 각 블럭은 여러 디스크에 저장되지만 균등하진 않다. RAID 3처럼 RAID 4도 패리티를 처리하기 위해 별도의 디스크를 사용한다. 동시 트랜잭션 사용량이 많은 시스템에서 읽기 속도는 매우 중요한데 이런 시스템에 적합하다.
* 장점 : 드라이브 하나가 고장 나는 것을 허용하고 읽기 성능이 매우 좋다.
* 단점 : 쓰기 성능이 나쁘지만 블럭 읽기(block read) 성능은 괜찮다.


RAID 5(패리티를 순환시키는 것 없이 각 어레이에 접근한다)
* 최소 드라이브 개수 : 3
* 최대 용량 : (디스크의 수 - 1) x 디스크의 용량
* 설명 : RAID 4처럼 데이터의 블럭은 모든 디스크에 나뉘어 저장되지만 항상 균등하진 않고 패리티 정보도 모든 디스크에 나뉘어 저장된다.
* 장점 : 지원하는 회사가 많고 한 개의 드라이브가 고장 나는 것을 허용한다.
* 단점 : 디스크 재구성(rebuild)이 매우 느리고 쓰기 성능은 패리티 정보를 끊임없이 갱신해야 하기 때문에 우수하다고 할 수는 없다.


RAID 6(각 디스크에 패리티 정보가 두 번 독립적으로 분산된다)
* 최소 드라이브 개수 : 3
* 최대 용량 : (디스크의 수 - 2) x 디스크의 용량
* 설명 : RAID 4처럼 데이터의 블럭은 모든 디스크에 나뉘어 저장되지만 항상 균등하진 않고 패리티 정보도 모든 디스크에 나뉘어 저장된다.

* 장점 : 두 개의 드라이브까지 고장 나는 것을 허용하고 읽기 성능이 우수하고 매우 중요한 경우에 적합하다.
* 단점 : 쓰기 성능은 패리티를 여러 번 갱신해야 하기 때문에 RAID 5보다 매우 나쁘다. 디스크를 재구성하는 동안에 성능이 매우 나빠질 수 있다



[출처] http://blog.naver.com/mybrainz/150003200069


RAID 1-6 레벨 이해하기

1부터 6까지의 RAID 레벨의 장단점을 알아보고, 스토리지를 구성할 때 목적에 맞는 최적의 레벨을 찾아보자.

데이터는 많은 조직에서 가장 중요하고 요즘 같은 인터넷 시대에는 데이터를 빠르고 믿을 수 있게 접근하는 것이 매우 중요하다. 그렇게 조직은 대부분 데이터를 무결하게 유지하기 위해 RAID의 어떤 레벨을 사용한다.

요즘은 대부분 그렇지만 RAID 5가 쉽고 최선일 것 같기 때문에 얼마나 많은 서버에 RAID 5를 적용하고 있을까? 대부분의 경우 RAID 5가 옳은 선택이지만 쓰기 성능을 고려한다면 다른 RAID 레벨이 최선일지도 모른다.

지금 얼마나 많은 사람들이 RAID 10과 50를 즉석해서 설명할 수 있을까?

 
새로 발명된 RAID 레벨이 RAID 5의 단점을 보완할 수 있고 아직도 스토리지 시스템에서는 많은 것을 예비용으로 사용한다.
 
이 글에서 기본적인 RAID 레벨의 장단점을 소개하고 다음 글에서 나는 RAID 10같이 네스티드(nested)라고 불리는 좀 더 복잡한 RAID 레벨을 소개하려고 한다.
(주: http://www.acnc.com/04_00.html에서 각 RAID 레벨의 그림을 볼 수 있다.)

 

RAID 0(디스크 스트라이핑)

 
* 최소 드라이브 개수 : 2
 
* 최대 용량 : 디스크의 수 x 디스크의 용량
 
* 설명 : 데이터를 블럭으로 쪼개서 저장하는데 각 블럭은 다른 디스크로 나뉘어 저장된다.

* 장점 : 매우 빠르다. 데이터는 여러 개의 "모터(spindles)"로 스토리지에서 읽고 쓴다. 즉, I/O 로드가 분산되는 것을 의미하기 때문에 매우 빠르다. 이론적으로 디스크를 추가하는 족족 성능은 향상된다. 보통 엄청난 성능이 필요할 때 사용하는데 성능이 정말 좋은지 알아 보기 위해 스토리지를 아이오미터(IOmeter)같은 도구를 사용하여 확인한다.
 
* 단점 : 드라이브 하나가 고장 나면 이 RAID 레벨은 어떤 안전장치도 없기 때문에 천체 어레이가 고장 날 수 있고 디스크를 추가할 수록 위험이 증가한다.(주: 어레이는 여러 개의 디스크 배열을 의미)

 

 

RAID 1 (디스크 미러링)

* 최소 드라이브 개수 : 2

 
* 최대 용량 : (디스크의 수/2) x 디스크의 용량

 
* 설명 : 스토리지에 저장되는 모든 데이터는 두 개의 물리적인 디스크에 각각 저장되고 모든 데이터는 중복된다.

* 장점 : 드라이브 하나가 고장 나면 똑같은 내용의 다른 드라이브가 하나 더 있기 때문에 매우 안전하다. RAID 1은 읽기 성능이 단일 드라이브에서의 성능과 같거나 훨씬 좋다.

* 단점 : 각 드라이브는 미러링되기 때문에 전체 용량의 절반밖에 사용하지 못한다. 드라이브 두 개에 동일한 데이터를 써야 하기 때문에 쓰기 성능이 나빠질 수 있지만 아직 다른 RAID 레벨의 쓰기 성능보다는 훨씬 낫다.
RAID Level 1 : Mirroring and Duplexing
 
 
RAID 2: 이 레벨은 더 이상 사용되지 않는다
RAID Level 2 : Hamming Code ECC

 
 
RAID 3(패리티를 사용하고 디스크를 병렬로 처리한다)

 
* 최소 드라이브 개수 : 3

 
* 최대 용량 : (디스크의 수 - 1) x 각 디스크의 용량

 
* 설명 : 데이터는 바이트 단위로 쪼개져서 모든 디스크에 균등하게 나뉘어 저장되고 패리티 정보는 별도의 전용 디스크에 저장된다.

* 장점 : 한 개의 드라이브가 고장 나는 것을 허용하며 순차적 쓰기(sequential write) 성능과 순차적 읽기(sequential read) 성능이 우수하다.
 
* 단점 : 잘 사용되지 않고 문제를 해결하는 것이 어려울 수 있다. 하드웨어 RAID가 되어야 실제로 쓸만하다. RAID 3은 보통 매우 효율적이지만 임의 쓰기(random write) 성능이 나쁘고 임의 읽기(random read) 성능은 꽤 좋다. .
 
RAID Level 3 : Parallel Transfer with Parity

 

RAID 4 (각 디스크는 패리티 블럭을 공유한다)
 
* 최소 드라이브 개수 : 3
 
* 최대 용량 : (디스크의 수 - 1) x 디스크의 용량
* 설명 : 모든 파일은 블럭으로 쪼개지고 각 블럭은 여러 디스크에 저장되지만 균등하진 않다. RAID 3처럼 RAID 4도 패리티를 처리하기 위해 별도의 디스크를 사용한다. 동시 트랜잭션 사용량이 많은 시스템에서 읽기 속도는 매우 중요한데 이런 시스템에 적합하다.
 
* 장점 : 드라이브 하나가 고장 나는 것을 허용하고 읽기 성능이 매우 좋다.
* 단점 : 쓰기 성능이 나쁘지만 블럭 읽기(block read) 성능은 괜찮다.

RAID Level 4 : Independent Data Disks with Shared Parity Disk
 
 

RAID 5(패리티를 순환시키는 것 없이 각 어레이에 접근한다)

* 최소 드라이브 개수 : 3
 
* 최대 용량 : (디스크의 수 - 1) x 디스크의 용량

 
* 설명 : RAID 4처럼 데이터의 블럭은 모든 디스크에 나뉘어 저장되지만 항상 균등하진 않고 패리티 정보도 모든 디스크에 나뉘어 저장된다.
 
* 장점 : 지원하는 회사가 많고 한 개의 드라이브가 고장 나는 것을 허용한다.

 
* 단점 : 디스크 재구성(rebuild)이 매우 느리고 쓰기 성능은 패리티 정보를 끊임없이 갱신해야 하기 때문에 우수하다고 할 수는 없다.
 
 
RAID 6(각 디스크에 패리티 정보가 두 번 독립적으로 분산된다)
* 최소 드라이브 개수 : 3
 
* 최대 용량 : (디스크의 수 - 2) x 디스크의 용량
* 설명 : RAID 4처럼 데이터의 블럭은 모든 디스크에 나뉘어 저장되지만 항상 균등하진 않고 패리티 정보도 모든 디스크에 나뉘어 저장된다.
 
* 장점 : 두 개의 드라이브까지 고장 나는 것을 허용하고 읽기 성능이 우수하고 매우 중요한 경우에 적합하다.
* 단점 : 쓰기 성능은 패리티를 여러 번 갱신해야 하기 때문에 RAID 5보다 매우 나쁘다. 디스크를 재구성하는 동안에 성능이 매우 나빠질 수 있다.
 
RAID Level 6 : Independent Data Disks with Two Independent Distributed Parity Schemes
 
 
RAID 10(고신뢰도 + 고가용성)
 
* 최소 드라이브 개수 : 4
* 최대 용량 :
 
* 설명 & 장점 :
RAID 10 is implemented as a striped array whose segments are RAID 1 arrays

RAID 10 has the same fault tolerance as RAID level 1

RAID 10 has the same overhead for fault-tolerance as mirroring alone

High I/O rates are achieved by striping RAID 1 segments

Under certain circumstances, RAID 10 array can sustain multiple simultaneous drive failures

Excellent solution for sites that would have otherwise gone with RAID 1 but need some additional performance boost

 
* 단점 :
Very expensive / High overhead

All drives must move in parallel to proper track lowering sustained performance

Very limited scalability at a very high inherent cost

* 사용하기 좋은 곳 :

Database server requiring high performance and fault tolerance

 
 
RAID 10 : Very High Reliability Combined with High Performance
 
 
 
RAID 50(고속 입출력 & 고속 데이터 전송)
 
* 최소 드라이브 개수 : 6
 
* 최대 용량 :
 
* 설명 & 장점 :

RAID 50 should have been called "RAID 03" because it was implemented as a striped (RAID level 0) array whose segments were RAID 3 arrays (during mid-90s).

 

Most current RAID 50 implementation is illustrated above RAID 50 is more fault tolerant than RAID 5 but has twice the parity overhead .

 

High data transfer rates are achieved thanks to its RAID 5 array segments.

High I/O rates for small requests are achieved thanks to its RAID 0 striping.

 

Maybe a good solution for sites who would have otherwise gone with RAID 5 but need some additional performance boost.

* 단점 :

Very expensive to implement.

All disk spindles must be synchronized, which limits the choice of drives.

Failure of two drives in one of the RAID 5 segments renders the whole array unusable.

 

* 사용하기 좋은 곳 :

RAID 5를 이용하는 곳 중에서 추가적인 성능향상을 하고자 하는 곳.

 
RAID Level 50 : High I/O Rates and Data Transfer Performance
 
 
 
RAID 1+0(고속 데이터 전송)
 
* 최소 드라이브 개수 : 4
 
* 최대 용량 :
 
* 설명 & 장점 :
RAID 0+1 is implemented as a mirrored array whose segments are RAID 0 arrays.
RAID 0+1 has the same fault tolerance as RAID level 5.
RAID 0+1 has the same overhead for fault-tolerance as mirroring alone.
High I/O rates are achieved thanks to multiple stripe segments.
Excellent solution for sites that need high performance but are not concerned with achieving maximum reliability
 
* 단점 :

RAID 0+1 is NOT to be confused with RAID 10.

A single drive failure will cause the whole array to become, in essence, a RAID Level 0 array.

Very expensive / High overhead.

All drives must move in parallel to proper track lowering sustained performance.

Very limited scalability at a very high inherent cost.

 

* 사용하기 좋은 곳 :

Imaging applications

General fileserver

 
RAID Level 0+1 : High Data Transfer Performance 
블로그 이미지

유효하지않음

,