슈퍼컴퓨터 아키텍처
Supercomputer architecture슈퍼컴퓨터 아키텍처에 대한 접근은 1960년대 최초의 시스템이 도입된 이후 극적으로 변화하고 있습니다.Seymour Cray가 개척한 초기 슈퍼컴퓨터 아키텍처는 뛰어난 계산 피크 [1]성능을 달성하기 위해 작고 혁신적인 설계와 로컬 병렬에 의존했습니다.그러나, 얼마 지나지 않아, 컴퓨팅 능력의 향상에 대한 수요는 대규모 병렬 시스템의 시대를 맞이했습니다.
1970년대 슈퍼컴퓨터는 몇 개의 프로세서만을 사용했지만 1990년대 들어 수천 개의 프로세서를 탑재한 기계가 등장하기 시작했고 20세기 말까지 수만 개의 "기존" 프로세서를 탑재한 대규모 병렬 슈퍼컴퓨터가 일반적이었습니다.21세기의 슈퍼컴퓨터는 고속 [2][3]연결로 연결된 100,000개 이상의 프로세서(그래픽 유닛도 있습니다)를 사용할 수 있습니다.
수십 년 동안 열 밀도 관리는 대부분의 중앙 집중형 슈퍼컴퓨터의 [4][5][6]주요 문제로 남아 있었습니다.시스템에 의해 발생하는 대량의 열은 다른 시스템 [7]컴포넌트의 수명을 단축하는 등 다른 영향을 미칠 수도 있습니다.시스템을 통해 Fluorinert를 펌핑하는 것에서부터 하이브리드 액체-공기 냉각 시스템 또는 정상 에어컨 [8][9]온도의 공기 냉각에 이르기까지 열 관리에 대한 다양한 접근 방식이 있습니다.
대량의 프로세서를 탑재한 시스템은 일반적으로 두 가지 경로 중 하나를 사용합니다.예를 들어 그리드 컴퓨팅에서는 분산된 다양한 관리 도메인에 있는 다수의 컴퓨터의 처리 능력을 컴퓨터가 [10]사용 가능할 때마다 기회적으로 사용합니다.또 다른 방법에서는 컴퓨터 클러스터 등 서로 근접하게 다수의 프로세서를 사용합니다.이러한 중앙 집중식 대규모 병렬 시스템에서는 인터커넥트의 속도와 유연성이 매우 중요하며, 현대의 슈퍼컴퓨터는 강화된 Infiniband 시스템에서부터 3차원 Torus [11][12]인터커넥트에 이르기까지 다양한 접근 방식을 사용해 왔습니다.
콘텍스트와 개요
1960년대 후반부터 슈퍼컴퓨터의 파워와 확산은 현저하게 증가해 왔습니다.이러한 시스템의 근본적인 아키텍처 방향은 크게 변화하고 있습니다.초기의 슈퍼컴퓨터는 공유 메모리에 접속하는 밀접하게 연결된 소수의 프로세서에 의존했지만, 21세기의 슈퍼컴퓨터는 고속 [2][3]네트워크로 연결된 10만 개 이상의 프로세서를 사용합니다.
수십 년 동안 열 밀도 관리는 대부분의 중앙 집중형 슈퍼컴퓨터의 [4]주요 문제로 남아 있었습니다.Seymour Cray의 "열 방출" 모토는 그의 디자인 철학에 핵심이었고 Blue [4][5][6]Watters와 같은 대규모 실험에서도 슈퍼 컴퓨터 아키텍처에서 중요한 이슈가 되어 왔습니다.시스템에 의해 발생하는 대량의 열은 다른 시스템 [7]컴포넌트의 수명을 단축하는 등 다른 영향을 미칠 수도 있습니다.

시스템 X는 하이브리드 액체-공기 냉각 시스템을 사용하고 Blue Gene/P는 일반 에어컨 [8][13][14]온도에서 공랭하는 등 다양한 열 관리 방법이 있습니다.Aquasar 슈퍼컴퓨터의 열은 대학 [15][16]캠퍼스를 따뜻하게 하는 데 사용됩니다.
슈퍼컴퓨터에 의해 발생하는 열밀도는 시스템에 사용되는 프로세서 타입에 직접 의존하며, 일반적으로 더 강력한 프로세서가 더 많은 열을 발생시키지만, 이와 유사한 기초가 되는 반도체 [7]기술이 있습니다.초기 슈퍼컴퓨터는 로컬 병렬 처리(파이프라이닝 및 벡터 처리 등)를 활용하는 빠르고 촘촘한 프로세서를 사용했지만, 시간이 지남에 따라 프로세서의 수가 증가하여 컴퓨팅 노드를 컴퓨터 클러스터 등 더 멀리 배치하거나 그리드 [2][17]컴퓨팅에서 지리적으로 분산시킬 수 있었습니다.슈퍼컴퓨터의 프로세서 수가 증가함에 따라 컴포넌트 장애율이 심각한 문제가 되기 시작합니다.슈퍼컴퓨터가 평균적으로 1년에 한 번씩 장애가 발생하는 수천 개의 노드를 사용하는 경우 시스템에서 매일 [9]여러 개의 노드 장애가 발생합니다.
범용그래픽프로세서(GPGPU)의 가격 대비 성능이 향상되면서 톈허아이, 네블래 등 페타플롭 슈퍼컴퓨터가 대거 [18]의존하기 시작했다.그러나 K컴퓨터 등 다른 시스템에서는 SPARC 기반 설계와 같은 기존 프로세서를 계속 사용하고 있으며 GPGPU의 범용 하이 퍼포먼스 컴퓨팅 어플리케이션에서의 전체적인 적용 가능성은 논의의 대상이 되고 있습니다.단, GPGPU는 특정 벤치마크에 대한 전반적인 적용 가능성을 고려하여 조정될 수 있습니다.ryday 알고리즘은 응용 프로그램을 [19]조정하기 위해 상당한 노력을 기울이지 않는 한 제한될 수 있습니다.그러나 GPU가 점차 자리를 잡아가면서 2012년 CPU를 [20][21][22]GPU로 대체하면서 재규어 슈퍼컴퓨터가 타이탄으로 탈바꿈했다.
슈퍼컴퓨터의 독립 프로세서의 수가 증가함에 따라 파일 시스템의 데이터에 액세스하는 방법 및 보조 스토리지 리소스를 공유하고 액세스하는 방법이 두드러집니다.IBM General Parallel File System, BeeGFS, Parallel Virtual File System, Hadoop [23][24]등과 같은 분산 파일 관리를 위한 여러 시스템이 수년간 개발되었습니다.Tianhe-I와 같은 TOP100 목록에 있는 많은 슈퍼컴퓨터들은 Linux의 Lustre 파일 [4]시스템을 사용합니다.
프로세서 수가 적은 초기 시스템
CDC 6600 시리즈의 컴퓨터는 슈퍼컴퓨팅을 시도한 지 얼마 되지 않아 작업을 주변기기에 맡기고 CPU(중앙처리장치)가 실제 데이터를 처리할 수 있도록 함으로써 기존 시스템보다 우위를 점했습니다.미네소타 FORTRAN 컴파일러를 사용하면 6600은 표준 수학 [25]연산에서 500klops를 견딜 수 있습니다.
이후에 등장한 Cray 1과 Cray 2와 같은 다른 초기 슈퍼컴퓨터들은 조화롭게 동작하는 소수의 고속 프로세서를 사용했으며 [3]당시 관리할 수 있는 최대 용량의 공유 메모리에 균일하게 연결되었습니다.
이러한 초기 아키텍처는 벡터 처리와 같은 혁신 기술을 통해 프로세서 수준에서 병렬 처리를 도입했습니다.이것에 의해, 프로세서는 연속하는 사이클을 기다릴 필요 없이, 1 클럭 사이클로 몇개의 조작을 실행할 수 있습니다.
이윽고 프로세서의 수가 증가함에 따라 다양한 아키텍처 문제가 대두되었습니다.프로세서의 수가 증가함에 따라 대처해야 할 두 가지 문제는 메모리의 분배와 처리입니다.분산 메모리 어프로치에서는, 각 프로세서는 물리적으로 로컬 메모리와 밀접하게 패키지화되어 있습니다.그 후, 다른 프로세서와 관련지어져 있는 메모리는, 불균일한 메모리 액세스의 대역폭과 레이텐시 파라미터에 근거해 「더 멀리」됩니다.
1960년대에 파이프라인은 혁신으로 간주되었고 1970년대에는 벡터 프로세서의 사용이 잘 확립되었습니다.1980년대까지 많은 슈퍼컴퓨터는 병렬 벡터 [2]프로세서를 사용했다.
초기 시스템에서는 프로세서의 수가 비교적 적었기 때문에 공유 메모리 아키텍처를 쉽게 사용할 수 있었습니다.이것에 의해, 프로세서는 공통의 메모리 풀에 액세스 할 수 있습니다.초기 일반적인 접근법은 메모리 위치에 대한 액세스 시간이 프로세서 간에 비슷했던 균일한 메모리 액세스(UMA)를 사용하는 것이었습니다.NUMA(Non-Uniform Memory Access)를 사용하면 프로세서가 자신의 로컬 메모리에 다른 메모리 위치보다 더 빠르게 액세스할 수 있는 반면, COMA(Cache-Only Memory Architecture)는 각 프로세서의 로컬 메모리를 캐시로 사용할 수 있기 때문에 메모리 값의 [26]변경에 따른 조정이 필요합니다.
프로세서의 수가 증가함에 따라 슈퍼컴퓨터상의 효율적인 프로세서 간 통신과 동기화가 과제가 되고 있습니다.이 목표를 달성하기 위해 여러 가지 접근방식을 사용할 수 있습니다.예를 들어 1980년대 초 Cray X-MP 시스템에서는 공유 레지스터가 사용되었습니다.이 접근법에서는 모든 프로세서가 데이터를 앞뒤로 이동하지 않고 프로세서 간 통신 및 동기화에만 사용되는 공유 레지스터에 액세스할 수 있었습니다.그러나 많은 프로세서 간에 많은 양의 공유 메모리를 관리해야 하는 본질적인 어려움으로 인해 [27]보다 분산된 아키텍처로 이행하게 되었습니다.
대규모 중앙 집중식 병렬 처리
1980년대에 컴퓨팅 파워에 대한 수요가 증가함에 따라 프로세서의 수가 크게 증가하기 시작했고, 공유 메모리 아키텍처가 다수의 [2][28]프로세서로 확장될 수 없는 상황에서 분산 메모리와 분산 파일 시스템을 갖춘 대규모 병렬 시스템의 시대가 열리게 되었습니다.분산 공유 메모리와 같은 하이브리드 방식도 초기 [29]시스템 이후에 등장했습니다.
컴퓨터 클러스터링 어프로치에서는, 이용 가능한 다수의 컴퓨팅 노드([30]서버로서 사용되는 퍼스널 컴퓨터 등)를 고속의 프라이빗 로컬 에리어 네트워크를 개입시켜 접속합니다.컴퓨팅 노드의 액티비티는 "클러스터 미들웨어"에 의해 조정됩니다.클러스터 미들웨어는 노드 상부에 배치되어 사용자가 단일 시스템 이미지 [30]개념을 통해 클러스터를 하나의 대규모 컴퓨팅 유닛으로 취급할 수 있도록 하는 소프트웨어 계층입니다.
컴퓨터 클러스터링은 노드를 조정된 공유 서버로 사용할 수 있도록 하는 중앙 집중식 관리 방식을 사용합니다.P2P(peer-to-peer)나 그리드 컴퓨팅(grid computing)과 같은 다른 접근 방식과는 구별되지만 훨씬 더 분산적인 [30]특성을 가지고 있습니다.21세기까지 TOP500 조직의 500대 고속 슈퍼컴퓨터 반기 목록에는 많은 클러스터가 포함되어 있습니다.예를 들어 2011년에 세계에서 가장 빠른 슈퍼컴퓨터, 분산 메모리 탑재 K컴퓨터, 클러스터 아키텍처 [31][32]등이 있습니다.
클러스터 아키텍처 등 다수의 로컬 준독립 컴퓨팅 노드를 사용하면 인터커넥트의 속도와 유연성이 매우 중요합니다.현대의 슈퍼컴퓨터는 이 문제에 대처하기 위해 다양한 접근방식을 취했습니다.Tianhe-1은 FeiTeng-1000 [4]CPU로 강화된 Infiniband QDR 기반의 자체 고속 네트워크를 사용합니다.한편, Blue Gene/L 시스템은 글로벌 통신을 [11]위해 보조 네트워크와 3차원 토러스 인터커넥트를 사용합니다.이 접근법에서는 각 노드가 가장 가까운6개의 네이버에 접속됩니다.비슷한 토러스가 Cray T3E에 [12]사용되었습니다.
대규모 집중형 시스템에서는 특정 애플리케이션용으로 설계된 특수 목적의 프로세서를 사용하는 경우가 있습니다.또한 Field-Programmable Gate Array(FPGA; 필드 프로그래머블 게이트 어레이) 칩을 사용하여 범용성을 희생함으로써 성능을 향상시킬 수도 있습니다.특수목적 슈퍼컴퓨터의 예로는 체스를 하는 Belle,[33] Deep Blue [34]및 [35]Hydra, 천체물리학을 [36]위한 Gravity Pipe, 단백질 구조 계산 분자역학용[37] MDGRAPE-3, DES 암호 해독을 위한 Deep [38]Crack 등이 있습니다.
대규모 분산 병렬화
그리드 컴퓨팅은 분산된 다양한 관리 도메인에서 다수의 컴퓨터를 사용합니다.자원을 이용할 [10]수 있을 때마다 사용하는 기회주의적 접근법입니다.BOINC는 자원봉사 기반의 기회주의적 그리드 [39]시스템입니다.일부 BOINC 애플리케이션은 자원봉사를 이용할 [40]수 있을 때마다 인터넷에 연결된 50만 대 가까운 컴퓨터를 사용하여 멀티페타플롭 수준에 도달했습니다.그러나 이러한 유형의 결과는 일반 용도의 Linpack 벤치마크를 실행하지 않기 때문에 TOP500 등급에 표시되지 않는 경우가 많습니다.
비록 그리드 컴퓨팅, 날씨가 시뮬레이션 또는 계산 유체 역학 같은 슈퍼 컴퓨터 요구한 애플리케이션 평행 작업 이행에 성공을 거두었다, 부분적으로 과제 많은 수의 신뢰성 있는 sub-assignment뿐만 아니라 자원의 주어진 시간에 복사의 확실한 가용성의 장벽으로 남게 되었다.[39][41][42]
준기회주의적 슈퍼컴퓨팅에서는 지리적으로 분산된 다수의 컴퓨터가 내장된 [43]세이프가드로 조정됩니다.준기회주의적 접근방식은 BOINC와 같은 고도로 분산된 시스템에서의 자원봉사 컴퓨팅 또는 Globus와 같은 시스템에서의 일반적인 그리드 컴퓨팅을 넘어 미들웨어가 다수의 컴퓨팅 클러스터에 거의 심리스하게 접근할 수 있도록 함으로써 Fortran이나 C와 같은 언어로 된 기존 프로그램을 여러 co 간에 배포할 수 있도록 합니다.자원 [43]관리
준기회주의적 슈퍼컴퓨팅은 기회주의적 자원 [44]공유보다 더 높은 서비스 품질을 제공하는 것을 목표로 합니다.그quasi-opportunistic 접근grid-wise 자원 할당 협정을 설립함으로써 컴퓨터 그리드 내에서 요구한 애플리케이션의 실행, 그리고 흠을 관대한 메시지 제어의 높은 수준의 허용하는 내부 자원의 실패에 대한abstractly 방패도 기회주의를 유지하면서에게 패스하는 수 있습니다.[10][43][45]
21세기 건축 경향

공랭식 IBM Blue Gene 슈퍼컴퓨터 아키텍처는 프로세서 속도를 저소비 전력과 맞바꾸어 상온에서 일반 [14][46]에어컨을 사용하여 더 많은 프로세서를 사용할 수 있도록 합니다.2세대 Blue Gene/P 시스템은 노드간 통신 [47]로직을 통합한 프로세서를 갖추고 있습니다.에너지 효율이 뛰어나 371 [48]MFLOPS/W를 달성합니다.
K 컴퓨터는 수냉식 동종 프로세서이며 클러스터 [32][49]아키텍처를 갖춘 분산 메모리 시스템입니다.각각 8개의 코어를 갖춘 80,000개 이상의 SPARC64 VIIfx 프로세서를 사용하여 총 700,000개 이상의 코어를 사용합니다.이는 다른 시스템보다 거의 2배 많은 수치입니다.각각 96개의 컴퓨팅 노드(각각 16GB의 메모리)와 6개의 I/O노드를 갖춘 800개 이상의 캐비닛으로 구성되어 있습니다.TOP500 리스트의 다음 5개 시스템을 합친 것보다 강력하지만 824.56 MFLOPS/W로 현재 주요 슈퍼컴퓨터 시스템 [50][51]중 가장 낮은 전력 대 성능 비율을 자랑합니다.PRIMEHPC FX10이라고 불리는 K 컴퓨터의 후속 시스템은 동일한 6차원 토러스 인터커넥트를 사용하지만 [52]노드당 프로세서는 1개뿐입니다.
K 컴퓨터와 달리 Tianhe-1A 시스템은 하이브리드 아키텍처를 사용하여 CPU와 GPU를 [4]통합합니다.약 3,500대의 [53]블레이드에서 14,000개 이상의 범용 프로세서와 7,000개 이상의 Nvidia Tesla 범용 그래픽 처리 장치(GPGPU)를 사용합니다.112개의 컴퓨터 캐비닛과 262테라바이트의 분산 메모리를 갖추고 있으며, 2페타바이트의 디스크 스토리지는 Lustre 클러스터 [54][55][56][4]파일을 통해 구현됩니다.Tianhe-1은 자체 [4]고속 통신 네트워크를 사용하여 프로세서를 연결합니다.자체 인터커넥트 네트워크는 중국제 FeiTeng-1000 [4]CPU로 강화된 Infiniband QDR을 기반으로 했습니다.인터커넥트의 경우 시스템은 Infiniband보다 2배 빠르지만 다른 슈퍼컴퓨터의 [57]일부 인터커넥트보다 느립니다.
IBM은 2011년 일리노이 [58][59]대학의 Blue Watters petaflops 프로젝트에 대한 참여를 중단하는 등 대규모 실험을 통해 한계에 도달함에 따라 특정 접근 방식의 한계를 계속 시험하고 있습니다.Blue Watters 아키텍처는 IBM POWER7 프로세서를 기반으로 하며 200,000개의 코어와 "글로벌 주소 지정 가능한 메모리" 및 10페타바이트의 디스크 공간을 [6]갖추도록 설계되었습니다.지속적인 페타플롭의 목표는 싱글 코어 성능을 최적화하는 설계 선택으로 이어졌고, 이에 따라 코어 수가 감소했습니다.코어 수가 적으면 다수의 [6]프로세서로 확장성이 떨어지는 프로그램의 퍼포먼스에 도움이 될 것으로 기대되고 있습니다.글로벌하게 주소를 지정할 수 있는 대규모 메모리 아키텍처는, 같은 [6]타입의 프로그램에 대해서, 메모리 주소의 문제를 효율적으로 해결하는 것을 목적으로 하고 있습니다.Blue Waters는 적어도 한 페타플롭의 지속적인 속도로 작동할 것으로 예상되었으며, 열을 관리하기 위해 특정 수냉 접근법에 의존했다.운영 첫 4년 동안 국립과학재단은 이 프로젝트에 약 2억 달러를 지출했다.IBM은 곧 이 프로젝트의 기술에서 파생된 Power 775 컴퓨팅 노드를 출시했지만 Blue Watters [58][59]접근 방식을 사실상 포기했습니다.
Cyclops64 시스템은 대규모 분산형 [60][61]프로세서를 사용하지 않는 방향으로 "슈퍼 컴퓨터 온 칩" 방식을 사용하는 등 다양한 방향으로 아키텍처 실험이 계속되고 있습니다.각 64비트 Cyclops64 칩에는 80개의 프로세서가 탑재되어 있으며 시스템 전체가 글로벌 주소 지정이 가능한 [62]메모리 아키텍처를 사용합니다.프로세서는 내부적으로 차단되지 않는 크로스바 스위치와 연결되어 글로벌인터리브 메모리를 통해 서로 통신합니다.아키텍처에는 데이터 캐시가 없지만 각 SRAM 뱅크의 절반을 스크래치패드 [62]메모리로 사용할 수 있습니다.이러한 아키텍처는 동적으로 연속되지 않는 메모리 시스템에서 구조화되지 않은 병렬 처리를 가능하게 하지만 병렬 알고리즘을 다코어 [61]시스템에 효율적으로 매핑하는 데에도 어려움이 있습니다.
「 」를 참조해 주세요.

레퍼런스
- ^ Sao-Jie Chen; Guang-Huei Lin; Pao-Ann Hsiung; Yu-Hen Hu (9 February 2009). Hardware Software Co-Design of a Multimedia Soc Platform. Springer. pp. 70–72. ISBN 978-1-4020-9622-8. Retrieved 15 June 2012.
- ^ a b c d e Hoffman, Allan R. (1989). Supercomputers : directions in technology and applications. Washington, D.C.: National Academy Press. pp. 35–47. ISBN 978-0-309-04088-4.
- ^ a b c d Hill, Mark D.; Jouppi, Norman P.; Sohi, Gurindar (2000). Readings in computer architecture. San Francisco: Morgan Kaufmann. pp. 40–49. ISBN 978-1-55860-539-8.
- ^ a b c d e f g h i Yang, Xue-Jun; Liao, Xiang-Ke; Lu, Kai; Hu, Qing-Feng; Song, Jun-Qiang; Su, Jin-Shu (2011). "The TianHe-1A Supercomputer: Its Hardware and Software". Journal of Computer Science and Technology. 26 (3): 344–351. doi:10.1007/s02011-011-1137-8. S2CID 1389468.
- ^ a b Murray, Charles J. (1997). The supermen : the story of Seymour Cray and the technical wizards behind the supercomputer. New York: John Wiley. pp. 133–135. ISBN 978-0-471-04885-5.
- ^ a b c d e Biswas, Rupak, ed. (2010). Parallel computational fluid dynamics : recent advances and future directions : papers from the 21st International Conference on Parallel Computational Fluid Dynamics. Lancaster, Pa.: DEStech Publications. p. 401. ISBN 978-1-60595-022-8.
- ^ a b c Yongge Huáng, ed. (2008). Supercomputing research advances. New York: Nova Science Publishers. pp. 313–314. ISBN 978-1-60456-186-9.
- ^ a b Tokhi, M. O.; Hossain, M. A.; Shaheed, M. H. (2003). Parallel computing for real-time signal processing and control. London [u.a.]: Springer. pp. 201–202. ISBN 978-1-85233-599-1.
- ^ a b Vaidy S. Sunderam, ed. (2005). Computational science -- ICCS 2005. 5th international conference, Atlanta, GA, USA, May 22-25, 2005 : proceedings (1st ed.). Berlin: Springer. pp. 60–67. ISBN 978-3-540-26043-1.
- ^ a b c Prodan, Radu; Thomas Fahringer (2007). Grid computing experiment management, tool integration, and scientific workflows. Berlin: Springer. pp. 1–4. ISBN 978-3-540-69261-4.
- ^ a b Knight, Will (27 June 2007). "IBM creates world's most powerful computer". New Scientist.
- ^ a b Adiga, N. R.; Blumrich, M. A.; Chen, D.; Coteus, P.; Gara, A.; Giampapa, M. E.; Heidelberger, P.; Singh, S.; Steinmacher-Burow, B. D.; Takken, T.; Tsao, M.; Vranas, P. (March 2005). "Blue Gene/L torus interconnection network" (PDF). IBM Journal of Research and Development. 49 (2.3): 265–276. doi:10.1147/rd.492.0265. Archived from the original (PDF) on 2011-08-15.
{{cite journal}}
: CS1 maint: 여러 이름: 작성자 목록(링크) - ^ Varadarajan, S. (14 March 2005). System X building the Virginia Tech supercomputer. Computer Communications and Networks, 2004. ICCCN 2004. Proceedings. 13th International Conference on. p. 1. doi:10.1109/ICCCN.2004.1401570. ISBN 978-0-7803-8814-7. ISSN 1095-2055.
- ^ a b Prickett Morgan, Timothy (22 November 2010). "IBM uncloaks 20 petaflops BlueGene/Q super". The Register.
- ^ "IBM Hot Water-Cooled Supercomputer Goes Live at ETH Zurich". HPCwire. Zurich. 2 July 2010. Archived from the original on 13 August 2012.
- ^ LaMonica, Martin (10 May 2010). "IBM liquid-cooled supercomputer heats building". Green Tech. Cnet.
- ^ Henderson, Harry (2008). "Supercomputer Architecture". Encyclopedia of Computer Science and Technology. p. 217. ISBN 978-0-8160-6382-6.
- ^ Prickett Morgan, Timothy (31 May 2010). "Top 500 supers – The Dawning of the GPUs". The Register.
- ^ Rainer Keller; David Kramer; Jan-Philipp Weiss (1 December 2010). Facing the Multicore-Challenge: Aspects of New Paradigms and Technologies in Parallel Computing. Springer. pp. 118–121. ISBN 978-3-642-16232-9. Retrieved 15 June 2012.
- ^ Poeter, Damon (11 October 2011). "Cray's Titan Supercomputer for ORNL could be world's fastest". PC Magazine.
- ^ Feldman, Michael (11 October 2011). "GPUs Will Morph ORNL's Jaguar Into 20-Petaflop Titan". HPC Wire.
- ^ Prickett Morgan, Timothy (11 October 2011). "Oak Ridge changes Jaguar's spots from CPUs to GPUs".
- ^ Hai-Xiang Lin; Michael Alexander; Martti Forsell, eds. (2010). Euro-Par 2009 parallel processing workshops : HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Delft, The Netherlands, August 25-28, 2009 ; workshops (Online-Ausg. ed.). Berlin: Springer. p. 345. ISBN 978-3-642-14121-8.
- ^ Reiner Dumke; René Braungarten; Günter Büren (3 December 2008). Software Process and Product Measurement: International Conferences, IWSM 2008, MetriKon 2008, and Mensura 2008, Munich, Germany, November 18-19, 2008 : Proceedings. Springer. pp. 144–117. ISBN 978-3-540-89402-5. Retrieved 15 June 2012.
- ^ Frisch, Michael J. (December 1972). "Remarks on algorithm 352 [S22], algorithm 385 [S13], algorithm 392 [D3]". Communications of the ACM. 15 (12): 1074. doi:10.1145/361598.361914. S2CID 6571977.
- ^ El-Rewini, Hesham; Mostafa Abd-El-Barr (2005). Advanced computer architecture and parallel processing. Hoboken, NJ: Wiley-Interscience. pp. 77–80. ISBN 978-0-471-46740-3.
- ^ J. J. Dongarra; L. Grandinetti; J. Kowalik; G.R. Joubert (13 September 1995). High Performance Computing: Technology, Methods and Applications. Elsevier. pp. 123–125. ISBN 978-0-444-82163-8. Retrieved 15 June 2012.
- ^ Greg Astfalk (1996). Applications on Advanced Architecture Computers. SIAM. pp. 61–64. ISBN 978-0-89871-368-8. Retrieved 15 June 2012.
- ^ Jelica Protić; Milo Tomašević; Milo Tomasevic; Veljko Milutinović (1998). Distributed shared memory: concepts and systems. IEEE Computer Society Press. pp. ix–x. ISBN 978-0-8186-7737-3. Retrieved 15 June 2012.
- ^ a b c Tomoya Enokido; Leonard Barolli; Makoto Takizawa, eds. (2007). Network-based information systems : first international conference, NBiS 2007, Regensburg, Germany, September 3-7, 2007 : proceedings. Berlin: Springer. p. 375. ISBN 978-3-540-74572-3.
- ^ TOP500 목록 TOP500 목록에 있는 모든 클러스터를 보려면 TOP500 사이트의 "서브리스트 메뉴"에서 아키텍처로 "클러스터"를 선택합니다.
- ^ a b Yokokawa, M.; Shoji, Fumiyoshi; Uno, Atsuya; Kurokawa, Motoyoshi; Watanabe, Tadashi (22 August 2011). The K computer: Japanese next-generation supercomputer development project. Low Power Electronics and Design (ISLPED) 2011 International Symposium on. pp. 371–372. doi:10.1109/ISLPED.2011.5993668. ISBN 978-1-61284-658-3. S2CID 13436840.
- ^ 콘돈, J.H., K.톰슨, "Belle Chess Hardware" 컴퓨터 체스 3의 진보(ed.M.R.B).Clarke), Pergamon Press, 1982.
- ^ Hsu, Feng-hsiung (2002). Behind Deep Blue: Building the Computer that Defeated the World Chess Champion. Princeton University Press. ISBN 978-0-691-09065-8.
- ^ Donninger, Chrilly; Ulf Lorenz (2004). The Chess Monster Hydra. Lecture Notes in Computer Science. Vol. 3203. pp. 927–932. doi:10.1007/978-3-540-30117-2_101. ISBN 978-3-540-22989-6. S2CID 5467762.
- ^ Makino, Junichiro; Makoto Taiji (1998). Scientific simulations with special purpose computers : the GRAPE systems. Chichester [u.a.]: Wiley. ISBN 978-0-471-96946-4.
- ^ RIKEN 보도자료, 분자역학 시뮬레이션을 위한 원페타플롭스 컴퓨터 시스템 완성 2012-12-02 웨이백 머신에 보관
- ^ Electronic Frontier Foundation (1998). Cracking DES – Secrets of Encryption Research, Wiretap Politics & Chip Design. Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
- ^ a b Vega, Francisco Fernández de Vega (2010). Erick Cantú-Paz (ed.). Parallel and distributed computational intelligence (Online-Ausg. ed.). Berlin: Springer-Verlag. pp. 65–68. ISBN 978-3-642-10674-3.
- ^ BOIN 통계, 2011 Wayback Machine 2010-09-19 아카이브
- ^ Guang R. Gao, ed. (2010). Languages and compilers for parallel computing : 22nd international workshop, LCPC 2009, Newark, DE, USA, October 8-10, 2009, revised selected papers (1st ed.). Berlin: Springer. pp. 10–11. ISBN 978-3-642-13373-2.
- ^ Mario R. Guarracino, ed. (2011-06-24). Euro-par 2010, Parallel Processing Workshops Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Italy, August 31 - September 3, 2010. Berlin [u.a.]: Springer-Verlag New York Inc. pp. 274–277. ISBN 978-3-642-21877-4.
- ^ a b c Kravtsov, Valentin; David Carmeli; Werner Dubitzky; Ariel Orda; Assaf Schuster; Benny Yoshpa (2007). "Quasi-opportunistic supercomputing in grids". IEEE International Symposium on High Performance Distributed Computing: 233–244.
- ^ Marian Bubak, ed. (2008). Computational science -- ICCS 2008 : 8th international conference, Krakow, Poland, June 23-25, 2008 ; proceedings (Online-Ausg. ed.). Berlin: Springer. pp. 112–113. ISBN 978-3-540-69383-3.
- ^ Gabrielle Allen, ed. (2009). Computational science - ICCS 2009 : 9th international conference, Baton Rouge, LA, USA, May 25-27, 2009 ; proceedings. Berlin: Springer. pp. 387–388. ISBN 978-3-642-01969-2.
- ^ Cunha, José C. (2005). Euro-Par 2005 Parallel Processing. [New York]: Springer-Verlag Berlin/Heidelberg. pp. 560–567. ISBN 978-3-540-28700-1.
- ^ "IBM Triples Performance of World's Fastest, Most Energy-Efficient Supercomputer". 2007-06-27. Retrieved 2011-12-24.
- ^ "The Green500 List". Archived from the original on 2016-08-26. Retrieved 2020-02-13.
- ^ TOP500 목록 2012-01-20 Wayback Machine에서 아카이브됨
- ^ Takumi Maruyama (2009). SPARC64(TM) VIIIfx: Fujitsu's New Generation Octo Core Processor for PETA Scale computing (PDF). Proceedings of Hot Chips 21. IEEE Computer Society.
- ^ "RIKEN Advanced Institute for Computational Science" (PDF). RIKEN. Archived from the original (PDF) on 27 July 2011. Retrieved 20 June 2011.
- ^ 후지쯔, 포스트K 슈퍼컴퓨터 공개HPC 와이어 2011년 11월 7일
- ^ "MSN Outlook, Office, Skype, Bing, Breaking News, and Latest Videos". Archived from the original on 2010-10-07.
- ^ "China ..." 28 October 2010.
- ^ "Top100 ..." 28 October 2010.
- ^ 톈허-1A
- ^ Thibodeau, Patrick (4 November 2010). "U.S. says China building 'entirely indigenous' supercomputer". Computerworld. Archived from the original on 11 October 2012. Retrieved 5 February 2012.
- ^ a b The Register: IBM이 'Blue Watters' 슈퍼 체인을 끌어당기다
- ^ a b Statistian IBM의 Unix 컴퓨터 사업이 호황을 누리고 있습니다.
- ^ Niu, Yanwei; Ziang Hu; Kenneth Barner; Guang R. Gao (2005). Performance modelling and optimization of memory access on cellular computer architecture cyclops64. Proceeding NPC'05 Proceedings of the 2005 IFIP International Conference on Network and Parallel Computing. Lecture Notes in Computer Science. Vol. 3779. pp. 132–143. doi:10.1007/11577188_18. ISBN 978-3-540-29810-6.
- ^ a b Tan, Guangming; Sreedhar, Vugranam C.; Gao, Guang R. (13 November 2009). "Analysis and performance results of computing betweenness centrality on IBM Cyclops64". The Journal of Supercomputing. 56 (1): 1–24. doi:10.1007/s11227-009-0339-9. S2CID 10976819.
- ^ a b Hai Jin; Daniel A. Reed; Wenbin Jiang (2005). Network and Parallel Computing: IFIP International Conference, NPC 2005, Beijing, China, November 30 - December 3, 2005 ; Proceedings. Birkhäuser. pp. 132–133. ISBN 978-3-540-29810-6. Retrieved 15 June 2012.