퀀텀 오브 솔러스 (Quantum Of Solace, 2008)



 매 회마다 지구를 위협하는 새로운 적과 무기를 상대로 임무를 완수해온 007 시리즈의 제임스 본드. 2008년 그가 물을 키워드로 다시 돌아왔다. 최근에 전세계적으로 이슈화되고 있는 이산화탄소, 녹색성장, Green, 기후변화, 그리고 물.
 
기후변화나, 이산화탄소와 같은 다소 추상적인 것들에 대해서 그리 관심을 두지 않고 살아왔었지만, 지난 몇년간 일로써 Green IT라는 환경의 필요성을 접해왔던 터라, 영화의 화려한 액션과 미끈한 본드걸보다는 영화자체가 주는 메세지가 남달리 다가온다.

항상 과학이나 정보통신은 예술을 쫓아간다고 한다. 벌써 몇십년 전에 영화나 책과 같은 예술작품을 통해서 등장했던 우주여행도 과학과 정보통신으로 실현시켰지 않은가. 

이런 의미에서 보면, 물을 위한, 물로 인한 분쟁이 곧 현실화 될 지 모른다. 물론, 이미 문제를 파악했으므로 분쟁이전에 과학이 동원되어서 해결이 될지도 모르는 긍정적인 유추도 있을 수 있다. 그러니 너무 걱정은 하지 않아도 되지 않을까싶다.

다만, 우리도 생활속에서나마 이러한 문제를 한번 더 생각하고 물부족과 같은 현상을 막을 수 있는 작은 실천이 필요하겠다. 

여담. 작가의 의도였는지 모르겠지만, 비록 영화에서는 악인으로 등장을 하지만, "Green"이 그토록 원하던 것은 다이아몬드나 석유도 아닌 "물" 것이다. 시대상황을 정말 적절하게 표현한 방법이다.


차세대 데이터센터 차세대 데이터센터, 효율적 설계·운영 필수
인프라·시스템 레벨의 효율 절감 중요 … 핫 아일·콜드 아일 배열 등 살펴야


이번 호에서는 최근 호스트웨이IDC의 데이터센터 리모델링의 배경과 당시 사용됐던 솔루션을 바탕으로 인프라설비뿐만 아니라 시스템 레벨에서의 효율을 위한 몇 가지 방법을 체크해보고자 한다. <편집자>


연재순서
1회 : 차세대 데이터센터가 갖춰야 할 점 및 방향
2회 : 차세대 데이터센터의 구현(이번호)
박흥배 // 호스트웨이IDC 센터장

전통적인 방식의 데이터센터의 문제점을 아래와 같이 언급할 수 있을 것이다.

· 아웃소싱, 아웃태스킹 증가로 인한 IDC의 수요 증가, 언제 얼마나 많은 IT자원을 보유한 입주사의 신규/추가 입주 요청이 있을지 알 수 없음 - IT자원 수요증가의 불확실성
· 미래를 예측하기 어려운 상태에서 이러한 요청에 대응하기 위해서는 미래의 기반설비 용량에 대해 정확히 예측해야 하나 이는 적지 않은 노력을 들여야 하고, 실제 기반설비의 증설은 신규/추가 입주를 위해 요구되는 시점보다 장기간의 구축 시간을 필요로 하여 구축 시간이 유치계약 자체의 성패를 가름하는 요소가 되기도 함
· 정확한 예측이 가능하다 하더라도 현재 상면 단위의 일률 과금 체계는 부하밀도가 높은 IT자원을 운용하는 입주사에게 보다 유리한 구조임.
· IT 자원의 전력/냉방 부하 밀도의 증가 추세에 적절히 대응하기 어려워 고부하 밀도의 IT 자원 도입이 일반화되면 부하밀도의 공급 문제가 IDC 운영에 막대한 영향을 미칠 수 있음


전통적인 방식의 데이터센터의 물리적인 요건 중 항온항습 용량 산정 시 <표 1>을 참조할 수 있다. 물론, 이 방법은 현재에도 사용되고 있으며, 이를 기반으로 전체 냉각설비의 용량을 산정하는데 중요한 요소인 것이 틀림없다. 여기서 소요면적 기준 용량 산정 시 장비 배치 밀도에 따라 용량산정이 변동될 수 있음에 주의해야 한다.

전 통적인 방식의 데이터센터를 설계할 때는 IT수요에 대한 예측자체가 어려울 뿐더러, 단위면적당 열 밀도가 현저하게 증가되면서, 더 이상 <그림 1>의 ②와 같이 평균의 개념에서의 냉각방식으로는 단위면적당 열 밀도가 높은 구역의 발열을 해결할 수 없게 되고, 이로 인해 핫스팟과 같은 현상이 발생하고 있는 것이다. 핫스팟은 주로 랙의 상부 혹은 후면에 나타나며, 냉각된 공기가 제대로 공급되지 못할 경우에는 뜨거운 공기가 계속 재순환돼 온도가 점점 올라가는 악순환이 일어나기도 한다.

다음의 <그림 2>를 살펴보자. 2부를 전력부하와 항온항습 용량 산정으로 시작하게 된 이유가 설명이 된다.
< 그림 2>는 데이터센터에서 사용되는 전력의 유형을 잘 표현해주고 있다. 소분류로 6가지의 대표적인 부하들을 명시하고 있고, 이들을 다시 크게 두 가지로 나누면, 전력, 항온항습설비와 같은 인프라를 위한 부하와 통신, 서버 부하로 나눌 수 있으며, 이들은 각각 50:50의 비율을 보이고 있음을 알 수 있다.

사이트 인프라스트럭처 설계 ‘중요’
앞으로 열거하게 될 사항들은 데이터센터 전력사용의 50%를 차지하고 있는 사이트 인프라스트럭처(Site infrastructure)에 대한 내용이 될 것이다.
물 론 데이터센터 전체의 효율 면에서는 통신, 서버부하인 50%에 대한 운영효율도 함께 높이는 것이 가장 최상의 방안이 되겠지만, 일반적인 데이터센터의 경우 인프라의 운영과 서버시스템의 운영이 인프라 제공 사업자와 고객으로 분리돼 있는 경우가 대부분이므로, 최상의 결과를 가져오기 위해서는 이 두 주요 운영자가 함께 노력해야 할 것이다.
먼저 대단위 냉각방식의 변화 없이 핫스팟을 해결하기 위한 방법이 소개되고 있다.


<그림 3, 4>와 같이 서버시스템의 프론트와 리어(Rear)를 서로 마주보도록 배치되는 형태, 그 동안 수차례 언급되었고, 그 효율에 대해서는 이미 검증된 상태이다. 여기서 추가로 고려해 볼 것은,

· 랙과 천정 사이의 높이를 최대한 줄여서 핫 아일(aisle) 더운 공기가 랙의 상부를 통해 콜드 아일로 전달되는 현상을 최소화하는 것이다.
· 액세스 플로어의 높이는 아래를 참고해, 높여서 설계할 수 있도록 한다.
· 열 손실을 최소화하고, 냉각 효율을 최대화하기 위해 콜드 아일을 콘테인먼트(Containment)하는 방법도 고려될 수 있다.

● 블랭크 패널


핫 아일 - 콜드 아일의 개념은 차가운 공기와 더운 공기를 철저히 분리함으로써 고밀도 장비 환경하에서 효율이 높은 냉방이 가능하도록 하기 위함이며, 이런 솔루션의 효과가 배가 되기 위하여 아래 그림과 같이 더운 공기와 차가운 공기가 만날 수 있는 지점을 철저히 차단하는 것이 상당히 효과가 높게 나타난다.
추가로 이 방법 외에도 차가운 공기와 더운 공기가 순환되지 못하도록 하는 방안을 지속적으로 검토하는 것이 필요할 것이다.

● 액세스 플로어의 조정
< 표 1>에서 우리는 이미 ‘장비 배치밀도에 따라서 용량이 달라질 수 있다’는 문구를 확인했다. 즉 용량산정 시 배치 밀도에 근거한 발열량을 기준으로 공기유동을 다이나믹하게 조절할 필요성이 여기에 있다. 이는 데이터센터의 열 해석을 통해서 해결할 수 있으며, 전통적으로는 위치별로 온도와 유량을 실측했으나 이는 측정에 많은 시간과 노력이 소모되었으며, 측정값을 바탕으로 한 개선안에 대해서는 예측이 불가능하다는 단점이 있었다.
이런 점을 해결하기 위해서 다수의 열 해석 프로그램이 운영되고 있으며 호스트웨이IDC의 데이터센터에는 IBM의 열해석 솔루션인 CFD 시뮬레이션이 적용됐다.

● CFD
CFD(Computational Fluid Dynamics: 전산유체역학)는 공기나 물 등 유체의 복합한 유동에 대한 거동을 컴퓨터를 이용해 해석하는 유체역학의 한 분야이며, 이를 통해 시간과 노력을 대폭 절감하면서 현상과 대안에 대한 예측을 가능케 한다.

<그림 6>는 CFD 시뮬레이션 결과를 보여주며, CFD S/W에 아래와 같은

· 레이아웃
· 이중마루의 다공판 위치 설정
· 랙별 발열 특성가정
· 냉각시설 용량 및 특징
· 유동상의 장애요소

내 용을 입력하면, <그림 6>과 같이 과열 랙이 발생하는지를 포함, 이중마루 내의 압력/풍속을 분석하며, 각 위치별 온도/풍속을 예측할 수 있게 된다. 이런 시뮬레이션을 통해서 예측 가능한 범위에서 액세스 플로어의 개구율을 조절하고, 부하를 재 배치 한다든지 하는 등의 해결 방법을 보다 쉽게 찾을 수 있다.

항온항습 설비의 에너지 효율
< 그림 7>은 그림 3의 핫 아일 배열과 동시에 동절기 실외(서울, 경기 지역을 기준으로 11월 ~ 3월)의 차가운 공기를 전산실에서 사용할 수 있도록 하는 방법으로, 실외의 공기가 기준 온도 이하일 경우 차가운 공기를 끌어들여 전산실로 공급해 차가운 공기를 생산하는데 소비되는 전력을 절감할 수 있는 설비다.

외국에는 프리쿨링에 대한 개념이 1990년대부터 소개됐고, 2차 산업에 이어서 데이터센터에 접목돼 외부온도에 따라 냉각방식이 변경되는 유동형으로 운영되고 있다.
지 금까지 고밀도화돼 가는 IT전력(서버 시스템)의 효율적인 냉각을 위해서 랙의 배치를 변경하고, 항온항습부분에서의 에너지 효율 및 절감에 대해서 알아봤다. 서두에 언급했던 대로 데이터센터 사이트 인프라스트럭처 부하의 전력부분에 대해 알아보자.

일 반적으로 데이터센터를 구성하는 전력라인은 위의 그림과 같이 변전소로부터 공급되는 전력을 UPS를 거쳐 PDU에서 서버 전력으로 분할 공급되는 것이 일반적이다. 데이터센터의 안정성을 유지하기 위해서 UPS는 데이터센터 전력 부하에 여유부하를 고려한 N과 예비 1(혹은, N*2)로 구성된다.


< 그림 8, 9>는 (동작방식이나 구성에서의 차이점은 논의하지 않겠다) UPS를 구분하는 방법 중에서 구조에 의한 방법으로 중앙집중형의 일체형이나 모듈형이냐의 차이라고 할 수 있다. 큰 맥락에서의 전원공급방식에서는 차이가 없으며, 단지, 대용량의 UPS 대신 여러 개의 소용량의 UPS가 각각의 분리된 구역을 담당하는 방식이다. 각각의 방법은 장단점이 서로 존재할 수 있기 때문에, 호스트웨이IDC에서 도입한 모듈식 UPS의 도입이유에 대해서 설명하고, UPS장비의 효율 등은 장비에 따라서 차이가 있을 수 있으므로 제외하겠다.

· UPS의 고장, 장애, 작업자의 실수 등으로 인한 전원 장애 시 해당 UPS가 담당하고 있는 구역의 장애로 한정될 수 있음
· 초기 구입시 비용부담이 적고, 부하의 증가량에 따라 UPS를 쉽게 추가할 수 있음
· 사용할 부하만큼 구매하여 사용할 수 있으므로, 대용량 UPS구입시 현재 사용하지 않는 부하량 만큼의 유지보수비용이 없음.

tech Guide / 차세대 데이터센터
상면·전력·냉각 부족 등 3대 문제점… 고집적 시스템·효율적 솔루션 등 적용해야

차세대 데이터센터에 대한 관심이 갈수록 높아지고 있다. 차세대데이터센터가 갖춰야할 요건은 무엇인지, 기존 데이터센터들의 문제점은 무엇인지 등 데이터센터의 여러 측면을 통해 향후 등장하게 될 차세대데이터센터의 모습을 엿본다. <편집자>

연재순서
1회 : 차세대 데이터센터 방향(이번호)
2회 : 차세대 데이터센터 구현

‘기업의 사회적 책임’이라는 화두가 두각되면서 한국의 많은 기업들도 이에 동참하고 있다. 여러 가지 형태의 사회적 책임이 존재하겠지만, 대부분의 기업들이 기업이미지를 제고하기 위한 수단으로 활용할 수 있는 형태 즉, 마케팅적인 의미에서의 ‘사회적인 책임’이 주종을 이루고 있지 않은가 싶다.
다수의 알려진 사회환원책들은 축적한 수익의 일부를 불우한 환경을 가진 이웃이나 기업이 속한 산업군의 혜택을 받지 못하고 있는 곳 등 다양한 형태의 봉사를 하는 것으로 홍보되고 있는 것이다.
이처럼 차세대 IDC가 갖춰야 할 것에 ‘기업의 사회적 책임’이라는 개념이 서서히 도입되고 있다. 그 동안 일반적으로 생각해왔던 데이터센터를 전통적인 방식의 데이터센터라고 하는데, 이런 데이타센터가 갖춰야 하는 핵심요소는 다음과 같다고 할 수 있겠다.
“급변하는 비즈니스 환경 하에서 비지니스의 성능과 속도, 영속성에 부응할 수 있도록 물리적, 논리적 ‘신뢰성’을 갖추고, 다변화 되고 있는 비즈니스의 변화에 즉각적으로 대처할 수 있도록 ‘확장’ 가능해야 하며, 이들을 ‘표준화’하는 것”이다.

데이터센터의 표준
2005년 4월에 데이터센터의 표준이라고 할 수 있는 TIA-942(Telecommunication Infrastructure Standard for Data Center)가 발표됐다. 여기서 데이터센터의 등급은 티어(Tier) Ⅰ부터 티어 Ⅳ까지 4등급으로 차등을 두고 있다. 여기서 높은 티어 계층은 데이터센터를 구성하는 아래의 큰 4가지 사항들에 대해 더 높은 신뢰성을 보장한다는 것이며, 그와 비례해서 건설비용이 상승하게 된다. 티어를 나누는 주요 요소는 다음과 같다.

- 사이트 스페이스와 레이아웃(Site space and layout)
- 케이블링 인스트럭처(Cabling infrastructure)
- 티어드 릴라이빌리티(Tiered reliability)
- 엔바이러멘털 컨시더레이션(Environmental considerations)

TIA-942가 발표되기 이전에는 TIA-568(Commercial Building Telecommunications Wiring Standard) 이 대표적인 상업용 건물을 위한 네트워크 인프라의 표준으로 주로 사용됐으며, 이는 2000년 초에 건설된 대부분의 데이터센터들은 안타깝게도 데이터센터의 표준이 없이 건설됐다는 것을 의미한다.
다행히도, 기간통신사업자 중심의 상용 IDC 기업은 아래의 표 1에서 티어 Ⅲ 레벨의 기준으로 건설돼 2005년을 전후해 신뢰성의 측면에서 별다른 어려움이 없이 운영될 수 있었다. 가장 손쉽게 확인해 볼 수 있는 것이 티어 분류에서 가용성의 측면을 확인해보면 알 수 있다.
그렇다면, 전통적인 방식의 데이터센터가 가지는 문제가 무엇이며, 이를 해결하기 위해서 어떤 방법을 취해야 할 것인가를 살펴보자.

IT 환경의 변화

위의 그림은 ‘업타임 인스티튜드(The Uptime Institute)’에서 2000년에 발표한 2000-2010년까지의 장비별 열밀도의 트렌드를 예측한 자료다. 조사에 참여한 15개의 대표적인 서버벤더들이 제시한 시스템 로드맵을 기준으로 작성돼 신뢰성이 높다고 할 수 있다. 여기서 눈여겨 봐야 할 것이 2000년에서 2010년까지 각 장비분류별로 2000년 이전의 발열량증가대비 50%에서 3배 이상까지 급속도로 증가한다는 것이다.
이 그래프가 2005년에 다시한번 아래 <그림 2>와 같이 2.0 버전으로 업데이트된다. 위에서 보여준 두 개의 그래프는 그 기울기의 형태 등에서 거의 대동소이하다고 볼 수 있다.
하지만, 뚜렷하게 구분되는 것은, 2010년경 예상되는 최대발열량이 약 100,000watts/ft²에서 60,000watts/ft² 로 감소한 것을 확인할 수 있다. 이는 그 동안 급성장해온 IT 환경에서 <그림 1>까지 벤더들의 주된 이슈가 데이터 처리를 위한 시스템의 성능을 높이기 위해서 CPU의 경우 무차별적으로 클럭 속도를 증가시키는 형태의 경쟁이었으므로, 이로 인해 무어의 법칙과 같이 증가되는 속도에 비례해 발열량이 늘고, 전력도 많이 사용하게 됐다. 이로 인해 동일한 면적에서 작게는 50%에서 많게는 3배 이상의 발열량과 전력소비량을 고스란히 IDC가 떠안게 된 것이다.
여기에, 전체 인터넷 트래픽의 약 85%이상이 집결되는 기간통신사업자중심의 데이터센터만으로는 현재의 증가된 네트워크 트래픽을 충분히 소화할 수 없을 정도로의 공간부족에 직면해 있기도 하다.

데이터센터의 노력
이러한 상황에서 각 IDC들은 데이터센터의 상면이 부족한 상황에서도 동일한 단위면적당(Rack) 증가된 전력소모로 인해 단위랙당 인스톨되는 장비의 수량을 조절하고 전력사용량에 대해 종량제를 검토할 수밖에 없으며, 증가한 발열량으로 인해 항온항습기(CRAC)를 추가로 증설하고, 아울러 이러한 증설된 장비들이 소모하는 전력량등의 비용부담을 떠 안고 온 것이다.
<그림 2>는 향후의 데이터센터를 위한 용량산정에 중요한 자료로 사용이 될 수도 있으며 또한, IT환경의 변화에 따르는 전력사용량, 발열량의 증가를 해결하기 위한 장비벤더의 노력을 증명하고 있기도 하다.
지금까지 나왔던 내용들을 요약하면 차세대 데이터센터로의 전향이 필요한 전통적인 데이터센터의 문제점이 아래와 같이 정리될 수 있겠다.
2000년을 전후해서 ‘데이터센터 건설의 표준’이 없이 일반 상업용 건물의 네트워크 표준으로 건설됐으며, 건설 당시의 요건이나 설비로는 앞으로 5년은 물론 현재의 전산장비의 물리적인 환경 요구사항을 받아들일 수 없는 것이다.
이것이 바로 대부분의 IDC들이 블레이드와 같은 초고집적설비의 IDC반입을 꺼려하는 이유기도 하다. 그것이 반영된 것이 아래 <그림 3>과 같다.

데이터센터의 설비의 문제점에 대해서 ‘데이터센터의 전원과 냉각문제가 추후 6~12 개월 이내에 CIO 들의 가장 큰 Top3 이슈로 부각될 것’이라는 조사결과에서도 보이듯이 데이터센터의 열과 전력량에 대한 이슈가 전체의 절반이상을 차지하고 있다.
그림에서 보듯이, IT환경이 급변하고 있지만, 새로운 서버를 구매하는 데 소요되는 비용은 IT 기술의 발달로 인해 변동이 거의 없음을 보여주고 있다. 즉, 시스템 아키텍처나 제작공정 발달로 갈수록 고성능화 되어가는 시스템을 저렴한 가격으로 구매를 할 수 있어지게 되고, 이는 IDC를 이용하는 고객이 누릴 수 있는 잇점으로 작용되고 있는 것이 현실이다.
여기에 시스템을 위해 제공되는 파워와 쿨링을 위해 투자돼야 하는 비용은 2006년을 기점으로 시스템을 구매하는 비용을 초과하기 시작하고 있다. IDC의 산업특성상 고용량의 전력설비, 항온항습설비를 다수의 고객이 공유하는 형태이므로, 서버가 소비하는 전력을 제외한 전력비용에 대해서 고객에게 청구하는 것이 현실상 어렵다. 이러한 문제 때문에 IDC 사업자는 지속적으로 증가하고 있는 서버전력과 이를 위해 쿨링에 들어가는 시설에 대한 투자 및 운영비용을 모두 부담하고 있는 상황이다.
지금까지 이야기한 내용을 정리한다면 2007년까지 전통적인 데이터센터들이 가지고 있던 문제점은 다음과 같다.

2007년 데이터센터의 주요 이슈
2007년 데이터센터들이 당면한 주요 이슈는 다음과 같다.

- 상면부족
- 전력부족
- 냉각부족

그리고, 이런 문제점들을 해결하는 것이 차세대 데이터센터의 물리적인 역할에서의 향후 발전 방향이 될 것이다. 단순히 상면이 부족하면, 데이터센터를 확장하고, 전력과 냉각용량이 부족하다면 전력용량을 늘리고, 항온항습기를 추가하면 나열된 문제들이 해결될 수 있다. 하지만, 물리적으로 증설된 장비들은 그에 비례해서 에너지를 소모하게 되고, 이것만으로는 IT를 유지하는데 과도한 비용이 소요돼 TCO의 문제를 그대로 떠안게 된다.
즉, “얼마나 많은 전력량(고집적화된 시스템들을 위한)을 잘(적절한 온도와 습도를 유지) 공급해줄 수 있는지”에서 “얼마나 많은 전력량을 효과적으로 잘 공급해줄 수 있을지”까지 고려돼야 할 것이다.
여기서 파워와 에너지의 관계가 드러나게 된다. 단순하게 보면 비슷한 의미로 보일 수도 있겠지만 이 두가지는 상당한 의미의 차이를 가지고 있다. 업타운 인스티듀드서 발표된 자료에 파워와 에너지의 관계를 그림으로 쉽게 설명하고 있다.
파워는 순간 측정된 전력으로 kW로 나타내며, 이는 최대수요전력을 파악하여 데이터센터의 용량산정에 기여한다. 에너지는 일정 기간 동안의 전력사용량, kWh로 표현한다.
파워의 측정 및 관리뿐만 아니라 지속적인 에너지 관리를 통해 비용을 절감해 기업의 새로운 비즈니스를 위한 기회비용으로 삼을 수도 있으며, 데이터센터는 이와 같은 에너지 절감을 통해 이산화탄소배출량을 줄이는데 공헌할 수 있을 것이다.

 


오늘날에는 IT 환경이 기업의 업무는 물론, 우리 가정생활에까지 깊숙이 파고들고 있다.

이러한 IT 환경을 도식화 해보면, 전 세계 어디서든 인터넷이라는 그물 망에 데이터센터라는 구조물이 중앙에 위치하고 있다고 할 수 있다.

데이터센터는 물류 시스템의 근간인 도로나 창고설비와 같이 그 자체로서 가치가 매우 클 뿐  만 아니라 주변 환경으로부터의 요구와 변화에 아주 민감할 수밖에 없는 구조체라는 것이 전문가들의 일반적인 견해이다.

통신 환경의 변화와 함께 주고받는 데이터가 2차원적인 문자 중심에서 비주얼한 미디어 형식 등 3차원으로 변화되면서 컴퓨팅 요구의 급속한 변화를 무리없이 처리하기 위해 실제로 xDSL(X Digital Subscriber Line)의 눈부신 성장만큼이나 데이터센터도 양적으로 성장을 계속해 왔다.

데이터센터들은 이러한 양적 팽창으로 인해 그 동안 경험해본 적이 없던 몇 가지의 문제점들 앞에 봉착하게 됐다. 또 이를 해결하기 위해 기존의 사업 모델을 혁신하기 위해 다양한 노력을 전개하고 있다.

최근 들어 차세대 데이터센터, 그린 IDC 등과 같은 타이틀을 달고 각종 세미나들이 줄지어 개최되고 있는 것도 이와 무관하지 않다고 할 수 있다.

각종 애플리케이션들이 점점 더 고성능의 시스템을 요구하게 되면서, 보다 작아지고 고성능화 된 시스템들이 데이터센터로 집중되고 있다. 또 이로 인해 전기 용량이 부족해지고 발열량이 증가하는 현상이 기하급수적으로 일어나고 있는 것이 현실이다.

데이터센터들은 지금 이 순간에도 이와 같이 쉽지 않은 문제를 해결하기 위해서 크고 작은 데이터센터 관련 프로젝트를 진행하고 있다.


일부의 데이터센터는 물리적인 고도화와 함께 전 산업군에서 새해 벽두를 뜨겁게 달구고 있는 이슈인 에너지 효율에 대한 심도있는 노력을 기울이고 있다.

그 대표적인 사례로 호스트웨IDC의 외부 공기 도입 시스템과 KT에서 신축중인 목동ICC의 직류(DC) 공급과 같이 에너지 절감형 데이터센터를 들 수 있을 것이다.

그 동안 우리나라에서 데이터센터들의 늘어나는 전력 수요에 대해 얼마나 많이 공급해줄 수 있을지를 고민하고 있었다면, 같은 시기에 선진국에서는 이미 데이터센터 사업자를 포함한 IT 기업들이 주축이 돼 어떻게 효율적으로 전력을 제공해 줄 수 있을까를 진지하게 논의하고 있었다.

, 그 동안 한국의 데이터센터들이 전력량에 매달려 있었다면, 이제는 효율의 측면에서 접근해야 한다는 것이다.

데이터센터에서 주로 전력을 소비하는 것은 IT 부하량인 컴퓨터 장비와 건물 부하량인 항온항습기를 들 수 있다.

데이터센터는 설비의 효율적인 운용이나 에너지 효율을 위한 투자 확대 등을 통해 항온항습의 운영에 필요한 전력소비를 줄일 수 있을 것이다.

나머지 약 50%에 해당하는 서버 시스템의 전력 효율은 고효율 제품 사용에 대한 사용자의 의식 변화, 벤더의 노력, 저전력 제품 생산 등과 같은 노력이 적극적으로 전개돼야 한다.

정부 또한 이같은 문제를 풀기 위해 PC나 서버와 같은 제품에 대해서도 가전제품과 같이 에너지 효율을 높이기 위한 방안을 정책적으로 적극적으로 검토할 필요가 있다고 본다.

조금 늦은 듯 싶기도 하지만, 지금이라도 이와 같이 관련 업계와 정부 모두 인식을 전환하고 에너지 절감을 위해 재출발하기 위한 노력이 필요한 시점이라고 할 수 있다.

에너지 절감은 누구 하나의 노력으로 결코 성공할 수 있는 일이 아니다. 모두가 공감대를 갖고 공동으로 노력해야 성공에 다다를 수 있을 것이다.

+ Recent posts