데이터센터

Data center
ARSAT 데이터센터 (2014)

데이터 센터(Data Center)[1] 또는 데이터 센터([2][note 1]Data Center)는 건물, 건물 내의 전용 공간 또는 컴퓨터 시스템통신저장 시스템과 같은 관련 구성 요소를 수용하는 데 사용되는 건물[3] 그룹을 말합니다.[4][5]

IT 운영비즈니스 연속성에 매우 중요하기 때문에 일반적으로 전원 공급, 데이터 통신 연결, 환경 제어(: 공조, 화재 진압) 및 각종 보안 장치를 위한 중복 또는 백업 구성 요소와 인프라를 포함합니다.대규모 데이터 센터는 소도시만큼이나 많은 전기를 사용하는 산업 규모의 운영입니다.[6]

역사

1962년 NASA 임무통제 컴퓨터실 c.

데이터 센터는 1940년대의 거대한 컴퓨터실에 뿌리를 두고 있으며, 대표적으로 ENIAC가 데이터 센터의 초기 사례 중 하나입니다.[7][note 2]운영 및 유지보수가 복잡한 초기 컴퓨터 시스템은 운영할 수 있는 특별한 환경을 필요로 했습니다.모든 부품을 연결하기 위해서는 많은 케이블이 필요했고, 장비를 장착하기 위한 표준 , 상향식 바닥, 케이블 트레이(상향 또는 상향식 바닥 아래에 설치) 등과 같은 이들을 수용하고 정리하는 방법이 고안되었습니다.단일 메인프레임에는 엄청난 전력이 필요했고 과열을 방지하기 위해 냉각되어야 했습니다.보안이 중요해졌습니다. 컴퓨터는 값이 비싸고 군사적 목적으로 사용되는 경우가 많았습니다.[7][note 3]따라서, 컴퓨터실에 대한 접근을 제어하기 위한 기본 설계 지침이 고안되었습니다.

마이크로컴퓨터 산업의 호황기, 특히 1980년대에 사용자들은 컴퓨터를 모든 곳에 배치하기 시작했는데, 많은 경우 작동 요건에 대해 거의 신경 쓰지 않거나 전혀 신경 쓰지 않았습니다.그러나 IT(정보 기술) 운영이 복잡해지기 시작하면서 조직은 IT 리소스를 제어해야 한다는 인식을 갖게 되었습니다.저렴한 네트워킹 장비를 사용할 수 있게 되면서 네트워크 구조 케이블에 대한 새로운 표준이 생겨나면서 회사 내부의 특정 공간에 서버를 배치하는 계층적 설계를 사용할 수 있게 되었습니다.특수 설계된 컴퓨터실에 적용되는 데이터 센터라는 용어의 사용은 이때부터 대중적인 인지도를 얻기 시작했습니다.[7][note 4]

데이터 센터의 붐은 1997-2000년의 닷컴 버블 시기에 일어났습니다.[8][note 5]기업들은 시스템을 구축하고 인터넷에서 입지를 구축하기 위해 빠른 인터넷 연결과 무중단 운영이 필요했습니다.이러한 장비를 설치하는 것은 많은 소규모 회사에서는 실행 가능하지 않았습니다.많은 기업들이 인터넷 데이터 센터(IDC)라고 불리는 초대형 시설을 구축하기 시작했습니다.[9] 이 시설은 크로스오버 백업과 같은 향상된 기능을 제공합니다. "벨 애틀랜틱 라인이 끊어지면 운영 중단 시간을 최소화하기 위해 ...로 이전할 수 있습니다."[9]

클라우드 데이터 센터(CDC)라는 용어가 사용되었습니다.[10]일반적으로 데이터 센터를 구축하고 유지하는 데 많은 비용이 듭니다.[8]점점 더 이러한 용어의 구분이 사라지고 데이터 센터라는 용어로 통합되고 있습니다.[11]

최신 데이터 센터의 요구사항

데이터 센터의 일부에 있는 통신 장비 랙

현대화와 데이터 센터 전환으로 성능과 에너지 효율이 향상됩니다.[12]

정보 보안도 관심사이며, 이러한 이유로 데이터 센터는 보안 침해 가능성을 최소화하는 안전한 환경을 제공해야 합니다.따라서 데이터 센터는 호스트 컴퓨터 환경의 무결성과 기능을 보장하기 위해 높은 기준을 유지해야 합니다.

산업 조사 회사인 IDC(International Data Corporation)는 데이터 센터의 평균 연령을 9세로 정했습니다.[12]또 다른 조사 회사인 Gartner는 7년 이상 된 데이터 센터는 구식이라고 말합니다.[13]데이터의 증가(2025년까지[14] 163제타바이트)는 데이터 센터의 현대화 필요성을 주도하는 하나의 요인입니다.

현대화에 초점을 맞추는 것은 새로운 일이 아닙니다. 2007년에는 낡은 장비에 대한 우려가,[15] 2011년에는 가동 시간 연구소에서 장비의 노후화에 대한 우려가 제기되었습니다.[note 6]2018년에는 "데이터 센터 직원들이 장비보다 빠르게 고령화되고 있다"는 우려가 다시 직원의 나이로 바뀌었습니다.[16]

데이터 센터 기준 충족

전기통신산업협회의 데이터센터[17] 전기통신 인프라 표준은 단일 입주기업 데이터센터와 멀티 테넌트 인터넷 호스팅 데이터센터를 포함한 데이터센터 및 전산실의 전기통신 인프라 최소 요건을 규정하고 있습니다.본 문서에서 제안하는 토폴로지는 모든 규모의 데이터 센터에 적용할 수 있도록 설계되었습니다.[18]

Telecordia GR-3160, NEBS Telecommunications Data Center Equipment and Space 요구사항은 통신 네트워크 내의 데이터 센터 공간에 대한 지침 및 해당 공간에 설치하기 위한 장비에 대한 환경 요구사항을 제공합니다.[19]이 기준들은 Telcordia와 업계 대표들이 공동으로 개발했습니다.데이터 처리 또는 정보 기술(IT) 장비를 수용하는 데이터 센터 공간에 적용할 수 있습니다.이 장비는 다음 용도로 사용될 수 있습니다.

  • 통신사 통신망 운영 및 관리
  • 통신사 고객에게 데이터 센터 기반 애플리케이션을 직접 제공
  • 타사가 고객에게 서비스를 제공할 수 있도록 호스팅된 애플리케이션 제공
  • 이들과 유사한 데이터 센터 애플리케이션의 조합 제공

데이터 센터 전환

데이터 센터 전환은 시간이 지남에 따라 수행되는 통합 프로젝트를 통해 단계별 접근 방식을 취합니다.이는 직렬 및 사일로 방식의 기존 데이터 센터 업그레이드 방식과는 차이가 있습니다.[20]데이터 센터 혁신 이니셔티브의 대표적인 프로젝트로는 표준화/통합, 가상화, 자동화 및 보안 등이 있습니다.

  • 표준화/통합:데이터 센터의[21][22] 수를 줄이고 서버[23] 무질서한 확장(물리적 및 가상화 모두)[24]을 방지하기 위해서는 노후화된 데이터 센터 장비를 교체해야 하는 경우가 많으며 [25]표준화를 통해 이를 뒷받침합니다.[26]
  • 가상화:자본 및 운영 비용을 절감하고 [27]에너지 소비를 줄입니다.[28]가상화된 데스크톱은 데이터 센터에서 호스팅하고 서브스크립션 단위로 대여할 수 있습니다.[29]투자 은행인 Lazard Capital Markets는 2008년에 2012년까지 엔터프라이즈 운영의 48%가 가상화될 것으로 예상했습니다.Gartner는 가상화를 현대화의 촉매제로 보고 있습니다.[30]
  • 자동화:숙련된 IT 인력이 적을 때만이 아니라 프로비저닝, 구성, 패치 적용, 릴리스 관리 및 규정 준수와 같은 작업을 자동화해야 합니다.[26]
  • 보안: 가상 시스템 보호는 물리적 인프라스트럭처의 기존 보안과 통합됩니다.[31]

층고층

타공냉각바닥타일

GR-2930이라는 이름의 상향식 바닥 표준 가이드는 에릭슨의 자회사인 텔코디아 테크놀로지스에 의해 개발되었습니다.[32]

1956년 IBM이 처음으로 층을 높인 컴퓨터실을 만들었지만,[33] "1960년대부터 있었다"고 하지만,[34] 컴퓨터 센터에서 냉기가 더 효율적으로 순환할 수 있도록 하는 것이 1970년대에 더 일반적이었습니다.[35][36]

층이 올라간 첫 번째 목적은 배선을 위한 접근을 허용하는 것이었습니다.[33]

소등

조명[37] 꺼지는 데이터 센터(lights-out data center) 또는 어두운 데이터 센터(dark data center)는 이상적으로 특별한 상황을 제외하고는 직원이 직접 액세스할 필요가 거의 없는 데이터 센터입니다.데이터센터에 직원이 들어갈 필요가 없기 때문에 조명 없이도 운영이 가능합니다.모든 장치는 원격 시스템에 의해 액세스되고 관리되며, 자동화 프로그램은 무인 작업을 수행하는 데 사용됩니다.에너지 절감, 인력 비용 절감, 인구 센터에서 더 멀리 떨어진 현장의 위치를 파악할 수 있는 기능 외에도 소등 데이터 센터를 구현하면 인프라에 대한 악의적인 공격 위협이 줄어듭니다.[38][39]

소음 수준

일반적으로, 지역 당국은 데이터 센터의 소음 수준이 "가장 가까운 거주지의 기존 야간 배경 소음 수준보다 10dB 낮은" 것을 선호합니다.[40]

OSHA 규정에 따르면 소음이 85데시벨을 초과할 경우 데이터 센터 내부의 소음 수준을 모니터링해야 합니다.[41]데이터 센터의 서버 영역의 평균 소음 수준은 92-96dB(A)에 이를 수 있습니다.[42]

데이터 센터 근처에 사는 주민들은 이 소리를 "24시간 내내 울리는 고음의 윙윙거리는 소음"이라고 표현하며, "비행기 엔진이 끊임없이 작동하는 타맥에 있는 것과 같다"고 말했습니다.비행기가 계속 공회전을 하고 절대 떠나지 않는다는 것만 빼면요."[43][44][45][46]

외부 소음원으로는 HVAC 장비와 에너지 발생기가 있습니다.[47][48]

데이터 센터 설계

데이터 센터 설계 분야는 수십 년 동안 크고 작은 신축과 함께 버려진 소매 공간, 오래된 염전 및 전쟁 시대 벙커와 같은 기존 시설의 창의적인 재사용 등 다양한 방향으로 성장해 왔습니다.

  • 65층 규모의 데이터 센터가 이미 제안되었습니다[49].
  • 2016년 기준으로 데이터 센터의 수는 미국 전역에서 3백만 개 이상으로 증가했으며, 전 세계적으로[8] 3배 이상 증가했습니다.

지역 건축법은 최소 천장 높이 및 기타 매개변수를 규정할 수 있습니다.데이터 센터 설계 시 고려해야 할 사항은 다음과 같습니다.

코로케이션에서 흔히 볼 수 있는 일반적인 서버 랙
  • 크기 - 건물의 한 방, 한 층 이상의 층 또는 전체 건물,
  • 용량 - 최대 1,000대 이상의[50] 서버를 수용할 수 있음
  • 기타 고려 사항 - 데이터 센터의 공간, 전력, 냉각 및 비용.[51]
  • 기계공학 인프라 - 난방, 환기 및 공기 조절(HVAC); 가습 및 제습 장비; 가압.[52]
  • 전기 공학 인프라 설계 - 유틸리티 서비스 계획, 배전, 전원으로부터의 전환 및 우회, 무정전 전원(UPS)[52][53] 시스템 등.
CRAC 에어 핸들

설계기준 및 절충안

  • 가용성 기대:다운타임을 방지하는 데 드는 비용이[54] 다운타임 자체의 비용을 초과해서는 안 됩니다.
  • 사이트 선택:위치 요인으로는 전력망과의 근접성, 통신 인프라, 네트워킹 서비스, 교통 회선, 긴급 서비스 등이 있습니다.기타 고려사항에는 비행 경로, 인접 전력 배수구, 지질학적 위험 및 기후(냉각 비용 관련)가 포함되어야 합니다.[55]
    • 전력 가용성을 변경하는 것이 가장 어려운 경우가 많습니다.

고가용성(HA)

95% 가동 시간을 초과하는 데이터 센터 가용성으로 인해 발생하는 데이터 가용성을 측정하기 위한 다양한 메트릭이 존재하며, 99%[56] 이후에 배치할 수 있는 9개 수를 스케일 상단에서 계산합니다.

모듈화 및 유연성

모듈성과 유연성은 데이터 센터가 시간이 지남에 따라 성장하고 변화할 수 있도록 하는 핵심 요소입니다.데이터 센터 모듈은 사전 설계되고 표준화된 빌딩 블록으로, 필요에 따라 쉽게 구성하고 이동할 수 있습니다.[57]

모듈형 데이터 센터는 운송 컨테이너 또는 유사한 휴대용 컨테이너 내에 포함된 데이터 센터 장비로 구성될 수 있습니다.[58]데이터 센터의 구성요소는 조립식으로 표준화할 수 있으므로 필요에 따라 이동이 용이합니다.[59]

환경관리

온도와 습도는 다음을 통해 제어됩니다.

습도가 높으면 먼지가 팬을 막히게 되어 과열로 이어지거나 부품이 오작동하여 보드가 망가지고 화재 위험이 발생할 수 있으므로 컴퓨터가 습하거나 과열되지 않도록 하는 것이 중요합니다.과열로 인해 구성 요소(보통 와이어 또는 회로의 실리콘 또는 구리)가 녹아 연결부가 느슨해져 화재 위험이 발생할 수 있습니다.

전력

디젤 발전기가 시동될 때까지 전력을 공급하는 데 사용되는 대형 데이터 센터의 배터리 뱅크

백업 전원은 하나 이상의 무정전 전원 공급 장치, 배터리 뱅크 및/또는 디젤/가스 터빈 발전기로 구성됩니다.[62]

단일 장애 지점을 방지하기 위해 백업 시스템을 포함한 전기 시스템의 모든 요소에 일반적으로 중복 복사본이 제공되고 중요한 서버는 A-sideB-side 전원 공급 장치에 모두 연결됩니다.이러한 배치는 종종 시스템에서 N+1 중복성을 달성하기 위해 이루어집니다.정적 전송 스위치는 정전 시 한 공급 장치에서 다른 공급 장치로 순간 전환을 보장하기 위해 사용되기도 합니다.

저전압 케이블 배선

옵션은 다음과 같습니다.

  • 오버헤드 케이블 트레이[63] 통해 데이터 케이블을 라우팅할 수 있음
  • 보안상의 이유와 랙에 설치되는 냉각 시스템의 추가 비용을 방지하기 위해 바닥 케이블을 높였습니다.
  • 규모가 작거나 비용이 적게 드는 데이터 센터에서는 바닥면 대신 정전기 방지 타일을 사용할 수 있습니다.

공기 흐름

공기 흐름 관리는 IT 장비에서 배출되는 뜨거운 공기의 재순환을 방지하고 바이패스 공기 흐름을 줄임으로써 데이터 센터 컴퓨터 냉각 효율을 향상시켜야 하는 필요성을 해결합니다.고온/냉온 통로 격납 장치 및 열내 냉각 장치와 같은 고온 및 저온 공기 흐름을 분리하는 여러 가지 방법이 있습니다.[64]

통로 격납고

냉 통로 격납은 장비 랙의 후면을 노출시키는 방식으로 이루어지며, 서버의 전면은 문과 덮개로 둘러싸여 있습니다.이는 대형 식품업체들이 제품을 냉장 보관하는 방식과 유사합니다.

서버 랙 전면이 서로 마주보고, 냉기가 높은 을 통해 분배되는 전형적인 냉기 통로 구성

컴퓨터 캐비닛/서버 팜은 종종 고온/냉온 통로를 담을 수 있도록 구성됩니다.통풍관을 적절히 배치하면 냉온풍이 섞이지 않습니다.여러 줄의 캐비닛이 서로 마주보도록 짝을 이루어 냉온의 공기 흡입구와 배기구가 서로 섞이지 않도록 하여 냉각 효율을 심각하게 저하시킵니다.

또는 다양한 바닥 아래 패널을 통해 바닥 환기 타일로 향하는 효율적인 냉기 경로를 생성할 수 있습니다.차가운 통로나 뜨거운 통로를 담을 수 있습니다.[65]

또 다른 옵션은 수직 배기 덕트가 있는 캐비닛을 장착하는 것입니다. Chimney[66] 고온 배기 파이프/환풍구/덕트는 공기를 낙하된 천장 의 플레넘 공간으로 유도하고 냉각 장치 또는 외부 환기구로 다시 유도할 수 있습니다.이 구성을 사용하면 기존의 고온/냉온 통로 구성이 필요하지 않습니다.[67]

방화장치

FM200 화재진압탱크

데이터 센터에는 수동형능동형 설계 요소를 포함한 방화 시스템과 운영 인 화재 예방 프로그램의 구현이 특징입니다.연기 감지기는 보통 화재 초기 단계에서 화재를 조기에 경고하기 위해 설치됩니다.

메인 은 회로 기판의 취약한 특성 때문에 습식 파이프 기반 시스템을 사용할 수 없지만, 설비의 나머지 부분이나 폐쇄된 시스템인 냉/온 통로 공기 순환 시스템에서 사용할 수 있는 시스템은 여전히 존재합니다.[68]

  • 스프링클러 시스템
  • 미스트, 고압을 이용하여 극도로 작은 물방울을 만드는 것으로 물방울의 특성상 민감한 방에서 사용할 수 있습니다.

그러나 화재를 진압하기 위한 다른 방법들도 존재하며, 특히 민감한 지역에서는 보통 가스 화재 진압을 사용하는데, 이 중 Halon 가스는 생산 및 사용에 따른 부정적인 효과가 발견될 때까지 가장 인기가 있었습니다.[1]

보안.

일반적으로 물리적 접근은 제한됩니다.계층화된 보안은 종종 펜싱, 볼라드, 맨트랩에서 시작됩니다.[69]데이터 센터의 규모가 크거나 민감한 정보를 포함하는 경우 비디오 카메라 감시 및 영구 보안 요원이 거의 항상 존재합니다.지문 인식 맨트랩은 흔한 일이 되기 시작했습니다.

일부 데이터 보호 규정에 따라 로깅 액세스가 필요합니다. 일부 조직에서는 이를 액세스 제어 시스템에 긴밀하게 연결합니다.주 출입구, 내부실 출입구, 장비 수납장에서 로그 항목이 여러 개 발생할 수 있습니다.캐비닛의 액세스 제어는 지능형 배전 장치와 통합되어 잠금 장치가 동일한 어플라이언스를 통해 네트워크에 연결되도록 할 수 있습니다.[70]

에너지사용량

Google 데이터 센터, The Dalles, Oregon주

에너지 사용은 데이터 센터의 핵심적인 문제입니다.전력 소모량은 옷장에 있는 서버 랙의 경우 수 kW에서 대규모 설비의 경우 수 십 MW에 이릅니다.일부 시설은 일반 사무실 건물의 100배가 넘는 전력 밀도를 가지고 있습니다.[71]전력 밀도가 높은 설비의 경우, 전기 비용이 주요 운영 비용이며 데이터 센터의 총 소유 비용(TCO)의 10% 이상을 차지합니다.[72]

온실가스 배출량

2020년 데이터 센터(암호화폐 채굴 제외)와 데이터 전송은 각각 세계 전력의 약 1%를 사용했습니다.[73]이 전기 중 일부는 저탄소였지만, IEA는 일부 데이터 센터가 여전히 화석 연료에서 생성된 전기를 사용하기 때문에 "[73]에너지 효율, 재생 에너지 조달 및 RD&D에 대한 정부 및 업계의 노력"을 더 촉구했습니다.[74]그들은 또한 건물에서와 같은 구체적인 배출을 포함한 라이프사이클 배출을 고려해야 한다고 말했습니다.[73]데이터 센터는 2018년 미국 온실가스 배출량의 0.5%를 담당한 것으로 추정됩니다.[75]텐센트와 같은 일부 중국 기업들은 2030년까지 탄소 중립을 약속했고, 알리바바와 같은 다른 기업들은 그린피스로부터 탄소 중립을 약속하지 않아 비난을 받았습니다.[76]

에너지 효율 및 오버헤드

데이터 센터 에너지 효율의 가장 일반적으로 사용되는 에너지 효율 지표는 전력 사용 효율성(PUE)으로, 데이터 센터에 들어오는 총 전력을 IT 장비가 사용하는 전력으로 나눈 비율로 계산됩니다.

오버헤드(냉각, 조명 등)에 의해 사용되는 전력의 비율을 측정합니다.평균 미국 데이터 센터의 PUE는 2.0으로, IT 장비에 전달되는 와트당 2 와트의 총 전력(오버헤드 + IT 장비)을 의미합니다.[77]최첨단 기술은 대략 1.2 정도로 추정됩니다.[78]Google은 운영 중인 데이터 센터에서 분기별 효율성을 발표합니다.[79]

미국 환경 보호국은 독립형 또는 대규모 데이터 센터에 대해 Energy Star 등급을 부여하고 있습니다.에코라벨 자격을 얻기 위해서는 데이터 센터가 보고된 모든 시설의 에너지 효율의 상위 분위 이내에 있어야 합니다.[80]2015년 에너지 효율 개선법(미국)은 데이터 센터를 포함한 연방 시설이 보다 효율적으로 운영되도록 요구하고 있습니다.캘리포니아 법규 제24호(2014)에 따르면 새로 구축되는 모든 데이터 센터는 에너지 효율을 최적화하기 위해 어떤 형태로든 공기 흐름 억제 장치를 마련해야 합니다.

유럽 연합도 비슷한 계획을 가지고 있습니다: 데이터 센터를 위한 EU 행동 강령입니다.[81]

에너지 사용량 분석 및 프로젝트

에너지 사용을 측정하고 분석하는 것은 IT 장비가 사용하는 것을 넘어 냉각기나 선풍기와 같은 설비 지원 하드웨어도 에너지를 사용합니다.[82]

2011년 데이터 센터의 서버 랙은 25kW 이상으로 설계되었으며, 일반적인 서버는 소비 전력의 약 30%를 낭비하는 것으로 추정되었습니다.정보 저장 시스템에 대한 에너지 수요도 증가했습니다.고가용성 데이터 센터는 1 메가 와트(MW)의 수요가 있으며 수명 동안 20,000,000 달러의 전력을 소비하는 것으로 추정되었으며 냉각 비용은 데이터 센터 총 소유 비용의 35%에서 45%에 달합니다.계산 결과, 2년 안에 서버의 전원을 공급하고 냉각하는 비용이 서버 하드웨어를 구입하는 비용과 동일할 수 있었습니다.[83]2018년의 연구에서는 IT 리프레시 속도를 최적화하고 서버 활용률을 높임으로써 상당한 양의 에너지를 여전히 절약할 수 있음을 보여주었습니다.[84]

2011년 Facebook, Rackspace 등은 친환경 데이터 센터 컴퓨팅 기술을 위한 개방형 표준을 개발하고 발표하기 위해 OCP(Open Compute Project)를 설립했습니다.프로젝트의 일환으로 Facebook은 Prineville에 있는 첫 번째 전용 데이터 센터를 위해 구축한 서버의 디자인을 발표했습니다.서버를 높이면 방열판을 더 효과적으로 설치할 수 있고 더 적은 에너지로 더 많은 공기를 이동하는 팬을 사용할 수 있게 되었습니다.상용 기성 서버를 구입하지 않음으로써 마더보드의 불필요한 확장 슬롯과 그래픽 카드와 같은 불필요한 구성 요소로 인한 에너지 소비도 절약할 수 있었습니다.[85]2016년 Google은 이 프로젝트에 참여하여 48V DC 얕은 데이터 센터 랙의 디자인을 발표했습니다.이 디자인은 오랫동안 구글 데이터 센터의 일부였습니다.Google은 일반적으로 데이터 센터에 배치되는 여러 의 변압기를 제거함으로써 에너지 효율을 30% 향상시켰습니다.[86]2017년 OCP 설계에 기반한 데이터 센터 하드웨어 매출은 12억 달러를 넘어섰고 2021년에는 60억 달러에 이를 것으로 예상됩니다.[85]

전력 및 냉각 분석

CERN의 데이터 센터(2010)

전력은 데이터 센터 사용자에게 가장 큰 반복 비용입니다.[87]70°F(21°C) 이하에서 냉각하면 비용과 에너지가 낭비됩니다.[87]또한, 상대 습도가 높은 환경에서 장비를 과냉각하면 회로 내의 전도성 필라멘트 상의 염 침착물의 성장을 촉진하는 많은 양의 수분에 장비를 노출시킬 수 있습니다.[88]

열 평가라고도 하는 전력 및 냉각 분석은 특정 영역의 상대 온도와 특정 주변 온도를 처리하는 냉각 시스템의 용량을 측정합니다.[89]전력 및 냉각 분석을 통해 높은 전력 사용 밀도를 처리할 수 있는 핫스팟, 과냉 영역, 장비 로딩의 중단점, 상향식 전략의 효과, 데이터 센터 전체의 온도 균형을 위한 최적의 장비 포지셔닝(예: AC 장치) 등을 파악할 수 있습니다.전력 냉각 밀도는 최대 용량에서 센터가 얼마나 많은 제곱 피트를 냉각할 수 있는지를 나타내는 척도입니다.[90]데이터 센터의 냉각은 서버 다음으로 전력 소비가 큰 분야입니다.냉각 에너지는 가장 효율적인 데이터 센터에서 전체 에너지 소비의 10%에 달하며, 표준 공랭식 데이터 센터에서는 최대 45%까지 증가합니다.

에너지효율분석

에너지 효율 분석은 데이터 센터 IT 및 설비 장비의 에너지 사용량을 측정합니다.일반적인 에너지 효율 분석은 데이터 센터의 전력 사용 효율성(PUE)과 같은 요소를 산업 표준과 비교하여 측정하고, 비효율성의 기계적 및 전기적 원인을 파악하며, 공기 관리 지표를 파악합니다.[91]그러나 대부분의 최신 메트릭과 접근 방식의 한계는 분석에 IT를 포함하지 않는다는 것입니다.사례 연구에 따르면 데이터 센터에서 에너지 효율을 전체적으로 다루면 그렇지 않으면 불가능한 주요 효율을 달성할 수 있습니다.[92]

전산유체역학(CFD) 해석

이러한 유형의 분석은 정교한 도구와 기법을 사용하여 각 데이터 센터에 존재하는 고유한 열 조건을 파악합니다. 즉, 수치 모델링을 사용하여 데이터 센터의 온도, 공기 흐름 및 압력 거동을 예측하여 성능과 에너지 소비를 평가합니다.[93]이러한 환경 조건의 영향을 예측함으로써 데이터 센터의 CFD 분석을 통해 밀도가 낮은 랙이[94] 혼합된 고밀도 랙의 영향과 냉각 자원에 미치는 영향, 열악한 인프라 관리 관행, 예정된 유지 보수를 위한 AC 고장 또는 AC 종료에 대한 향후 영향을 예측할 수 있습니다.

열영역 매핑

열 영역 매핑은 센서와 컴퓨터 모델링을 사용하여 데이터 센터에 핫 영역과 쿨 영역의 3차원 이미지를 만듭니다.[95]

이 정보는 데이터 센터 장비의 최적 위치를 파악하는 데 도움이 됩니다.예를 들어, 중요한 서버는 중복 AC 장치에 의해 서비스되는 쿨 존(cool zone)에 배치될 수 있습니다.

그린 데이터 센터

프랑스 스트라스부르 항구에 있는 이 수냉식 데이터 센터는 녹색 속성을 주장합니다.

데이터 센터는 많은 전력을 사용하며, 실제 장비를 구동하는 데 필요한 전력과 장비를 냉각하는 데 필요한 전력이라는 두 가지 주요 용도에 의해 소비됩니다.전력 효율성은 첫 번째 범주를 감소시킵니다.

자연적 수단을 통한 냉각 비용 절감에는 다음과 같은 위치 결정이 포함됩니다.장비를 관리하기 위한 파이버 연결, 전력망 연결 및 인력 집중이 원활하지 않을 경우 데이터 센터는 사용자로부터 수 마일 떨어져 있을 수 있습니다.구글이나 페이스북과 같은 대규모 데이터 센터는 인구 센터 근처에 있을 필요가 없습니다.냉방을 제공하는 외기를 이용할 수 있는 북극 지역이 점점 인기를 끌고 있습니다.[96]

재생 가능한 전기 공급원은 또 다른 이점입니다.따라서 캐나다,[97] 핀란드,[98] 스웨덴,[99] 노르웨이 [100]및 스위스와 같은 유리한 조건을 가진 국가들은 클라우드 컴퓨팅 데이터 센터를 유치하기 위해 노력하고 있습니다.[101]

에너지 재사용

공랭식 데이터 센터에서 나오는 열을 재사용하는 것은 매우 어렵습니다.이러한 이유로 데이터 센터 인프라에는 히트 펌프가 장착되는 경우가 더 많습니다.[102]히트 펌프의 대안은 데이터 센터 전체에 액체 냉각을 도입하는 것입니다.서로 다른 액체 냉각 기술이 혼합되어 있어 물과 함께 모든 열을 포착하는 완전한 액체 냉각 인프라가 가능합니다.다양한 액체 기술은 크게 세 가지로 분류되는데, 간접 액체 냉각(수냉식 랙), 직접 액체 냉각(직접 칩 냉각) 및 총 액체 냉각(액체 완전 몰입, 서버 몰입 냉각 참조)입니다.이러한 기술 조합을 통해 온도 체인 시나리오의 일부로 열 캐스케이드를 생성하여 데이터 센터에서 고온의 물 출력을 생성할 수 있습니다.

동적 인프라스트럭처

동적 인프라스트럭처는[103] 마이그레이션, 프로비저닝,[105] 성능 향상 또는 공동 위치 시설 구축을 위해 언제 어디서나 데이터 센터[104] 내의 워크로드를 지능적으로 자동으로 안전하게 이동할 수 있는 기능을 제공합니다.또한 물리적 시스템이나 가상 시스템 모두에서 일상적인 유지보수를 수행하는 동시에 중단을 최소화할 수 있습니다.이와 관련된 개념으로 Composible Infrastructure가 있으며, 필요한 경우에만 가용 리소스를 필요에 맞게 동적으로 재구성할 수 있습니다.[106]

부수적인 이점은 다음과 같습니다.

네트워크 인프라스트럭처

데이터센터의 네트워크 운영 제어실을 총괄하는 운영 엔지니어(2006)
데이터 센터의 네트워크 인프라스트럭처 예

오늘날 데이터 센터에서의 통신은 대부분 인터넷 프로토콜 제품군실행하는 네트워크를 기반으로 합니다.데이터 센터에는 데이터 센터 네트워크 아키텍처에 따라 연결된 서버와 외부 세계[108] 간의 트래픽을 전송하는 일련의 라우터스위치가 있습니다.인터넷 연결의 이중화는 종종 두 개 이상의 업스트림 서비스 공급자를 사용하여 제공됩니다(멀티호밍 참조).

데이터 센터의 일부 서버는 e-메일 서버, 프록시 서버, DNS 서버 등 조직 내 내부 사용자가 필요로 하는 기본적인 인터넷 및 인트라넷 서비스를 실행하는 데 사용됩니다.

방화벽, VPN 게이트웨이, 침입 탐지 시스템 등 네트워크 보안 요소도 일반적으로 배포됩니다.또한 네트워크 및 일부 애플리케이션에 대한 모니터링 시스템도 일반적입니다.데이터 센터 내부의 통신에 장애가 발생할 경우를 대비한 추가적인 오프사이트 모니터링 시스템도 전형적입니다.

소프트웨어/데이터 백업

상호 배타적이지 않은 데이터 백업 옵션은 다음과 같습니다.

  • 현장
  • 오프사이트

현장은 전통적인 방식이며,[109] 주요 이점 중 하나는 즉각적인 가용성입니다.

오프사이트 백업 저장소

데이터 백업 기술에는 데이터의 암호화된 복사본을 오프사이트에 두는 것이 포함됩니다.데이터 전송에 사용되는 방법은 다음과 같습니다.[110]

  • 고객이 자기 테이프와 같은 물리적 매체에 데이터를 작성한 다음 테이프를 다른 곳으로 운반하도록 하는 것입니다.[111]
  • 적절한 링크를 사용하여 백업 중에 데이터를 다른 사이트로 직접 전송
  • 데이터를 "클라우드에"[112] 업로드하기

모듈형 데이터 센터

40피트 길이의 휴대용 모듈러 데이터 센터

신속한 구축 또는 재해 복구를 위해 여러 대규모 하드웨어 공급업체에서 짧은 시간 내에 설치 및 운영할 수 있는 모바일/모듈형 솔루션을 개발했습니다.

마이크로 데이터 센터

마이크로 데이터 센터(MDC)는 기존 데이터 센터보다 크기는 작지만 동일한 기능을 제공하는 액세스 레벨 데이터 센터입니다.[113]통신 지연을 줄이기 위해 데이터 소스 근처에 위치하는 것이 일반적인데, 작은 크기로 인해 여러 마이크로 데이터 센터가 넓은 지역에 분산될 수 있기 때문입니다.[114][115]마이크로 데이터 센터는 사용자 대면 프론트 엔드 애플리케이션에 적합합니다.[116]엣지 컴퓨팅 및 저지연 데이터 처리가 필요한 다른 분야에서 일반적으로 사용됩니다.[117]

참고 항목

메모들

  1. ^ 맞춤법 차이를 봅니다.
  2. ^ 1960년(1945년) 이전에 개발된 미군의 에니악(ENIAC)과 같은 기계를 수용했던 오래된 대형 컴퓨터실은 이제 데이터 센터라고 불립니다.
  3. ^ 1960년대 초까지만 해도 주로 정부가 컴퓨터를 사용했습니다. 컴퓨터는 오늘날 데이터 센터라고 불리는 방에 설치된 대형 메인프레임이었습니다.
  4. ^ 1990년대에는 입력 장치나 디스플레이 장치 없이 네트워크에 연결된 미니 컴퓨터(서버)가 오래된 컴퓨터실에 수용되었습니다.이러한 새로운 "데이터 센터" 또는 "서버 룸"은 저렴한 네트워킹 장비와 함께 회사 벽 내에 구축되었습니다.
  5. ^ 닷컴 사업이 확장되던 2000년대 초반에는 데이터센터의 건설이 크게 이루어졌습니다.
  6. ^ 2011년 5월, 데이터 센터 조사 기관인 Uptime Institute는 조사 대상 대기업의 36%가 향후 18개월 이내에 IT 용량을 소진할 것으로 예상한다고 보고했습니다.James Niccolai. "Data Centers Turn to Outsourcing to Meet Capacity Needs". CIO magazine. Archived from the original on 2011-11-15. Retrieved 2011-09-09.
  7. ^ 냉각기/에어컨 대신 에너지 절감 효과가 있음

참고문헌

  1. ^ "An Oregon Mill Town Learns to Love Facebook and Apple". The New York Times. March 6, 2018.
  2. ^ "Google announces London cloud computing data centre". BBC.com. July 13, 2017.
  3. ^ "Cloud Computing Brings Sprawling Centers, but Few Jobs". The New York Times. August 27, 2016. data center .. a giant .. facility .. 15 of these buildings, and six more .. under construction
  4. ^ "From Manhattan to Montvale". The New York Times. April 20, 1986.
  5. ^ Ashlee Vance (December 8, 2008). "Dell Sees Double With Data Center in a Container". The New York Times.
  6. ^ James Glanz (September 22, 2012). "Power, Pollution and the Internet". The New York Times. Retrieved 2012-09-25.
  7. ^ a b c Angela Bartels (August 31, 2011). "Data Center Evolution: 1960 to 2000". Archived from the original on October 24, 2018. Retrieved October 24, 2018.
  8. ^ a b c Cynthia Harvey (July 10, 2017). "Data Center". Datamation.
  9. ^ a b John Holusha (May 14, 2000). "Commercial Property/Engine Room for the Internet; Combining a Data Center With a 'Telco Hotel'". The New York Times. Retrieved June 23, 2019.
  10. ^ H Yuan. "Workload-Aware Request Routing in Cloud Data Center". doi:10.1109/JSEE.2015.00020. S2CID 59487957. {{cite journal}}:저널 요구사항 인용 journal=(도움말)
  11. ^ Quentin Hardy (October 4, 2011). "A Data Center Power Solution". The New York Times.
  12. ^ a b "Mukhar, Nicholas. "HP Updates Data Center Transformation Solutions," August 17, 2011". Archived from the original on August 12, 2012. Retrieved September 9, 2011.
  13. ^ "Sperling, Ed. "Next-Generation Data Centers," Forbes, March 15. 2010". Forbes.com. Retrieved 2013-08-30.
  14. ^ "IDC white paper, sponsored by Seagate" (PDF).
  15. ^ "Data centers are aging, unsuited for new technologies". December 10, 2007.
  16. ^ "Data center staff are aging faster than the equipment". Network World. August 30, 2018.
  17. ^ "TIA-942 Certified Data Centers - Consultants - Auditors - TIA-942.org". www.tia-942.org.
  18. ^ "Telecommunications Standards Development". Archived from the original on November 6, 2011. Retrieved November 7, 2011.
  19. ^ "GR-3160 - Telecommunications Data Center - Telcordia". telecom-info.njdepot.ericsson.net.
  20. ^ "Tang, Helen. "Three Signs it's time to transform your data center," August 3, 2010, Data Center Knowledge". Archived from the original on August 10, 2011. Retrieved September 9, 2011.
  21. ^ "the Era of Great Data Center Consolidation". Fortune. February 16, 2017. 'Friends don't let friends build data centers,' said Charles Phillips, chief executive officer of Infor, a business software maker
  22. ^ "This Wave of Data Center Consolidation is Different from the First One". February 8, 2018.
  23. ^ "Start A Fire". startafire.com.
  24. ^ "Stop Virtual Server Sprawl". IBMsystemsMagazine.com. Archived from the original on 2018-10-23. Retrieved 2018-11-01.
  25. ^ "Top reasons to upgrade vintage data centers" (PDF).
  26. ^ a b "Complexity: Growing Data Center Challenge". Data Center Knowledge. May 16, 2007.
  27. ^ "Carousel's Expert Walks Through Major Benefits of Virtualization". technews.tmcnet.com.
  28. ^ Stephen Delahunty (August 15, 2011). "The New urgency for Server Virtualization". InformationWeek. Archived from the original on 2012-04-02.
  29. ^ "HVD: the cloud's silver lining" (PDF). Intrinsic Technology. Archived from the original (PDF) on October 2, 2012. Retrieved August 30, 2012.
  30. ^ "Gartner: Virtualization Disrupts Server Vendors". December 2, 2008.
  31. ^ "Ritter, Ted. Nemertes Research, "Securing the Data-Center Transformation Aligning Security and Data-Center Dynamics"". Archived from the original on 2017-06-25. Retrieved 2011-09-09.
  32. ^ "GR-2930 - NEBS: Raised Floor Requirements".
  33. ^ a b "Data Center Raised Floor History" (PDF).
  34. ^ "Raised Floor Info Tips for Ordering Replacement Raised Floor Tiles". www.accessfloorsystems.com.
  35. ^ Hwaiyu Geng (2014). Data Center Handbook. John Wiley & Sons. ISBN 978-1118436639.
  36. ^ Steven Spinazzola (2005). "HVAC: The Challenge And Benefits of Under Floor Air Distribution Systems". FacilitiesNet.com.
  37. ^ "Premier 100 Q&A: HP's CIO sees 'lights-out' data centers". Informationweek. March 6, 2006.
  38. ^ Victor Kasacavage (2002). Complete book of remote access: connectivity and security. The Auerbach Best Practices Series. CRC Press. p. 227. ISBN 0-8493-1253-1.
  39. ^ Roxanne E. Burkey; Charles V. Breakfield (2000). Designing a total data solution: technology, implementation and deployment. Auerbach Best Practices. CRC Press. p. 24. ISBN 0-8493-0893-3.
  40. ^ Clarke, Renaud (2020-07-01). "Acoustic Barriers for Data Centres". IAC Acoustics. Retrieved 2023-02-11.
  41. ^ Thibodeau, Patrick (2007-07-31). "That sound you hear? The next data center problem". Computerworld. Retrieved 2023-02-11.
  42. ^ Sensear. "Data Center Noise Levels". Sensear. Retrieved 2023-02-11.
  43. ^ Weisbrod, Katelyn (2023-02-10). "In Northern Virginia, a Coming Data Center Boom Sounds a Community Alarm". Inside Climate News. Retrieved 2023-02-11.
  44. ^ Judge, Peter (2022-07-19). "Prince William residents complain of "catastrophic noise" from data centers". DCD. Retrieved 2023-02-11.
  45. ^ Judge, Peter (2022-07-27). "Chicago residents complain of noise from Digital Realty data center". DCD. Retrieved 2023-02-11.
  46. ^ Phillips, Mark (2021-11-30). "Chandler to consider banning data centers amid noise complaints". ABC15 Arizona in Phoenix (KNXV). Retrieved 2023-02-11.
  47. ^ "Data Center Soundproofing and Noise Control- Reduce Server Noise". DDS Acoustical Specialties. Retrieved 2023-02-11.
  48. ^ Bosker, Bianca (2019-12-06). "Your "cloud" data is making noise on the ground". Marketplace. Retrieved 2023-02-11.
  49. ^ Patrick Thibodeau (April 12, 2016). "Envisioning a 65-story data center". Computerworld.
  50. ^ "Google container data center tour (video)". YouTube. Archived from the original on 2021-11-04.
  51. ^ "Romonet Offers Predictive Modeling Tool For Data Center Planning". June 29, 2011. Archived from the original on August 23, 2011. Retrieved February 8, 2012.
  52. ^ a b "BICSI News Magazine - May/June 2010". www.nxtbook.com.
  53. ^ "Hedging Your Data Center Power".
  54. ^ 클라크, 제프리."데이터 센터 가용성의 대가 -가용성이 얼마나 필요하십니까?", 2011년 10월 12일, 데이터 센터 저널
  55. ^ "Five tips on selecting a data center location".
  56. ^ "IBM zEnterprise EC12 Business Value Video". YouTube. Archived from the original on 2012-08-29.
  57. ^ 나일스, 수잔."데이터 센터 물리적 인프라의 표준화와 모듈화", 2011, Schneider Electric, 4페이지
  58. ^ "Strategies for the Containerized Data Center". September 8, 2011.
  59. ^ Niccolai, James (2010-07-27). "HP says prefab data center cuts costs in half".
  60. ^ "tw telecom and NYSERDA Announce Co-location Expansion". Reuters. 2009-09-14. Archived from the original on 2009-09-26.
  61. ^ "Air to air combat - indirect air cooling wars".
  62. ^ UPS 토폴로지에 대한 자세한 설명
  63. ^ "Cable tray systems support cables' journey through the data center". April 2016.
  64. ^ Mike Fox (2012-02-15). "Stulz announced it has begun manufacturing In Row server cooling units under the name "CyberRow"". DataCenterFix. Archived from the original on March 1, 2012. Retrieved February 27, 2012.
  65. ^ 핫-아일 대. 데이터 센터용 Cold-Aisle Containment, John Niemann, Kevin Brown 및 Victor Avelar, APC by Schneider Electric 백서 135, 개정 1
  66. ^ "US Patent Application for DUCTED EXHAUST EQUIPMENT ENCLOSURE Patent Application (Application #20180042143 issued February 8, 2018) - Justia Patents Search". patents.justia.com. Retrieved 2018-04-17.
  67. ^ "Airflow Management Basics – Comparing Containment Systems • Data Center Frontier". Data Center Frontier. 2017-07-27. Retrieved 2018-04-17.
  68. ^ "Data Center Fire Suppression Systems: What Facility Managers Should Consider". Facilitiesnet.
  69. ^ Sarah D. Scalet (2005-11-01). "19 Ways to Build Physical Security Into a Data Center". Csoonline.com. Retrieved 2013-08-30.
  70. ^ Systems and methods for controlling an electronic lock for a remote device, 2016-08-01, retrieved 2018-04-25
  71. ^ "Data Center Energy Consumption Trends". U.S. Department of Energy. Retrieved 2010-06-10.
  72. ^ J. 쿠미, C. 벨레이디, M. 패터슨, A. 산토스, K.D. 랭: 서버의 성능, 비용 에너지 사용의 시간에 따른 추세 평가 2009년 8월 17일 웹에 발표
  73. ^ a b c "Data Centres and Data Transmission Networks – Analysis". IEA. Retrieved 2022-03-06.
  74. ^ Kantor, Alice (2021-05-18). "Big Tech races to clean up act as cloud energy use grows". Financial Times. Archived from the original on 2022-12-10. Retrieved 2022-03-06.
  75. ^ Siddik, Md Abu Bakar; Shehabi, Arman; Marston, Landon (2021-05-21). "The environmental footprint of data centers in the United States". Environmental Research Letters. 16 (6): 064017. Bibcode:2021ERL....16f4017S. doi:10.1088/1748-9326/abfba1. ISSN 1748-9326. S2CID 235282419.
  76. ^ James, Greg (2022-03-01). "Tencent pledges to achieve carbon neutrality by 2030". SupChina. Archived from the original on 2022-07-11. Retrieved 2022-03-06.
  77. ^ "Report to Congress on Server and Data Center Energy Efficiency" (PDF). U.S. Environmental Protection Agency ENERGY STAR Program.
  78. ^ "Data Center Energy Forecast" (PDF). Silicon Valley Leadership Group. Archived from the original (PDF) on 2011-07-07. Retrieved 2010-06-10.
  79. ^ "Efficiency: How we do it – Data centers". Retrieved 2015-01-19.
  80. ^ 데이터 센터용 Energy Star 도입 해설
  81. ^ "EU Code of Conduct for Data Centres". iet.jrc.ec.europa.eu. Archived from the original on 2013-08-11. Retrieved 2013-08-30.
  82. ^ "UNICOM Global :: Home" (PDF). www.gtsi.com.
  83. ^ Daniel Minoli (2011). Designing Green Networks and Network Operations: Saving Run-the-Engine Costs. CRC Press. p. 5. ISBN 9781439816394.
  84. ^ Rabih Bashroush (2018). "A Comprehensive Reasoning Framework for Hardware Refresh in Data Centres". IEEE Transactions on Sustainable Computing. 3 (4): 209–220. doi:10.1109/TSUSC.2018.2795465. S2CID 54462006.
  85. ^ a b Peter Sayer (March 28, 2018). "What is the Open Compute Project?". NetworkWorld.
  86. ^ Peter Judge (March 9, 2016). "OCP Summit: Google joins and shares 48V tech". DCD Data center Dynamics.
  87. ^ a b Joe Cosmano (2009), Choosing a Data Center (PDF), Disaster Recovery Journal, retrieved 2012-07-21[영구 데드링크]
  88. ^ David Garrett (2004), Heat Of The Moment, Processor, archived from the original on 2013-01-31, retrieved 2012-07-21
  89. ^ "HP's Green Data Center Portfolio Keeps Growing - InternetNews". www.internetnews.com. 25 July 2007.
  90. ^ Inc. staff (2010), How to Choose a Data Center, retrieved 2012-07-21
  91. ^ "Siranosian, Kathryn. "HP Shows Companies How to Integrate Energy Management and Carbon Reduction," TriplePundit, April 5, 2011".
  92. ^ Rabih Bashroush; Eoin Woods (2017). "Architectural Principles for Energy-Aware Internet-Scale Applications". IEEE Software. 34 (3): 14–17. doi:10.1109/MS.2017.60. S2CID 8984662.
  93. ^ 불록, 마이클. "컴퓨팅 유체 역학 - 데이터 센터 월드의 핫 토픽", Transitional Data Services, 2010년 3월 18일.2012년 1월 3일 Wayback Machine에서 보관됨
  94. ^ "Bouley, Dennis (editor). "Impact of Virtualization on Data Center Physical Infrastructure," The Green grid, 2010" (PDF). Archived from the original (PDF) on 2014-04-29. Retrieved 2012-02-08.
  95. ^ "HP Thermal Zone Mapping plots data center hot spots". Archived from the original on 2021-01-26. Retrieved 2012-02-08.
  96. ^ "Fjord-cooled DC in Norway claims to be greenest". 23 December 2011. Retrieved 23 December 2011.
  97. ^ 캐나다, 대규모 데이터 컴퓨터를 위한 프라임 부동산이라고 불림 - Globe & Mail 2011년 6월 29일 회수
  98. ^ 핀란드 - 클라우드 컴퓨팅 데이터 센터를 위한번째 선택..2010년 8월 4일 회수.
  99. ^ "Stockholm sets sights on data center customers". Archived from the original on 19 August 2010. Retrieved 4 August 2010.
  100. ^ ICT 산업의 탄소 배출량이 급증하는 세계에서 노르웨이는 2016년 3월 1일 회수된 웨이백 머신에서 지속 가능한 솔루션 Archive 2020-10-29를 제공합니다.
  101. ^ 스위스의 탄소 중립 서버가 클라우드를 강타했습니다.2010년 8월 4일 회수.
  102. ^ "Data Center Cooling with Heat Recovery" (PDF). StockholmDataParks.com. January 23, 2017.
  103. ^ "Method for Dynamic Information Technology Infrastructure Provisioning".
  104. ^ Meyler, Kerrie (April 29, 2008). "The Dynamic Datacenter". Network World.
  105. ^ "Computation on Demand: The Promise of Dynamic Provisioning".[영구 데드링크]
  106. ^ "Just What the Heck Is Composable Infrastructure, Anyway?". IT Pro. July 14, 2016.
  107. ^ Montazerolghaem, Ahmadreza (2020-07-13). "Software-defined load-balanced data center: design, implementation and performance analysis" (PDF). Cluster Computing. 24 (2): 591–610. doi:10.1007/s10586-020-03134-x. ISSN 1386-7857. S2CID 220490312.
  108. ^ Mohammad Noormohammadpour; Cauligi Raghavendra (July 16, 2018). "Datacenter Traffic Control: Understanding Techniques and Tradeoffs". IEEE Communications Surveys & Tutorials. 20 (2): 1492–1525. arXiv:1712.03530. doi:10.1109/comst.2017.2782753. S2CID 28143006.
  109. ^ "Protecting Data Without Blowing The Budget, Part 1: Onsite Backup". Forbes. October 4, 2018.
  110. ^ "Iron Mountain vs Amazon Glacier: Total Cost Analysis" (PDF). Archived from the original (PDF) on 2018-10-28. Retrieved 2018-10-28.
  111. ^ IBM이 말하는 "PTAM: 픽업 트럭 액세스 방법"입니다.
  112. ^ "Iron Mountain introduces cloud backup and management service". September 14, 2017. {{cite magazine}}:Cite magazine 요구사항 magazine=(도움말)
  113. ^ Ibrahim, Rosdiazli; Porkumaran, K.; Kannan, Ramani; Nor, Nursyarizal Mohd; Prabakar, S. (2022-11-13). International Conference on Artificial Intelligence for Smart Community: AISC 2020, 17–18 December, Universiti Teknologi Petronas, Malaysia. Springer Nature. p. 461. ISBN 978-981-16-2183-3.
  114. ^ Guo, Song; Qu, Zhihao (2022-02-10). Edge Learning for Distributed Big Data Analytics: Theory, Algorithms, and System Design. Cambridge University Press. pp. 12–13. ISBN 978-1-108-83237-3.
  115. ^ Resources, Management Association, Information (2022-04-01). Research Anthology on Edge Computing Protocols, Applications, and Integration. IGI Global. p. 55. ISBN 978-1-6684-5701-6.{{cite book}}: CS1 유지 : 여러 이름 : 저자 목록 (링크)
  116. ^ Furht, Borko; Escalante, Armando (2011-12-09). Handbook of Data Intensive Computing. Springer Science & Business Media. p. 17. ISBN 978-1-4614-1414-8.
  117. ^ Srivastava, Gautam; Ghosh, Uttam; Lin, Jerry Chun-Wei (2023-06-24). Security and Risk Analysis for Intelligent Edge Computing. Springer Nature. p. 17. ISBN 978-3-031-28150-1.

외부 링크