테라그리드

TeraGrid
테라그리드
TeraGrid-logo.gif
사이트 유형
과학적 지원
다음에서 사용 가능영어
URLwww.teragrid.org
상업적아니요.
시작됨2004

TeraGrid는 11개 파트너 사이트의 리소스를 결합한 e-Science 그리드 컴퓨팅 인프라였습니다. 이 사업은 2001년에 시작되어 2004년부터 2011년까지 운영되었다.

TeraGrid는 고성능 컴퓨터, 데이터 리소스 및 툴, 그리고 실험 시설을 통합했다. 자원에는 고성능 컴퓨터 네트워크 연결을 통한 신속한 액세스와 검색이 가능한 30페타바이트 이상의 컴퓨팅 기능과 30페타바이트 이상의 온라인 및 아카이브 데이터 스토리지가 포함되었다. 연구자들은 또한 100개 이상의 분야별 데이터베이스에 접근할 수 있었다.

테라그리드(TeraGrid)는 시카고 대학의 GIG(Grid Infrastructure Group)를 통해 조정되었으며, 미국의 자원 제공 사이트와 제휴하여 작업하였다.

역사

미국 국립과학재단(NSF)이 리처드 L 프로그램 감독으로부터 '분산 테라스케일 시설'을 요청해 달라는 청탁을 받았다. 힐더브란트.[1] The TeraGrid project was launched in August 2001 with $53 million in funding to four sites: the National Center for Supercomputing Applications (NCSA) at the University of Illinois at Urbana-Champaign, the San Diego Supercomputer Center (SDSC) at the University of California, San Diego, the University of Chicago Argonne National Laboratory, and theCenter for Advanced Computing Research(CACR)는 캘리포니아 패서디나에 있는 캘리포니아 공과대학에 있다.

그 디자인은 처음부터 확장 가능한 분산형 오픈 시스템이었다.[2] 2002년 10월 카네기멜론대학피츠버그대학의 피츠버그 슈퍼컴퓨팅센터(PSC)는 NSF가 3500만 달러의 추가 자금 지원을 발표하자 테라그리드(TeraGrid)에 새로운 주요 파트너로 합류했다. TeraGrid 네트워크는 ETF 프로젝트를 통해 LA시카고의 스타라이트 시설에서 연결 지점이 있는 이중 허브 백본 네트워크로 변형되었다.

2003년 10월, NSF는 애틀랜타에 제3의 네트워크 허브 설립뿐만 아니라 TeraGrid에 4개의 사이트를 추가하기 위해 천만 달러를 수여했다. 이 새로운 사이트들은 오크리지 국립 연구소, 퍼듀 대학교, 인디애나 대학교, 오스틴에 있는 텍사스 대학교텍사스 고급 컴퓨팅 센터였다.

또한 TeraGrid 건설은 Sun Microsystems, IBM, Intel Corporation, Qwest Communications, Juniper Networks, Myricom, Hewlett-Packard Company, Oracle Corporation과의 기업 제휴를 통해 가능해졌다.

테라그리드 공장은 2004년 10월에 완공되었으며, 이때 테라그리드 시설은 본격적인 생산을 시작했다.

작전

2005년 8월, NSF가 새롭게 창설한 사이버 인프라 사무소는 1억 5천만 달러의 상금과 함께 5년 더 지원을 연장했다. 찰리 캐틀릿이 이끄는 시카고 대학의 그리드 인프라 그룹에 대한 조정 및 사용자 지원을 위해 4,800만 달러를 포함했다.[3] TeraGrid는 고성능 네트워크 연결을 사용하여 미국 전역에 고성능 컴퓨터, 데이터 리소스 및 도구, 고급 실험 시설을 갖추고 있었다. 이 프로젝트가 지원하는 작업을 e-Science라고 부르기도 한다. 2006년 미시간 대학교 정보대학은 테라그리드 연구에 착수했다.[4]

2007년 5월, TeraGrid 통합 자원은 250테라플롭 이상의 컴퓨팅 기능과 30페타바이트 이상의 온라인 및 아카이브 데이터 스토리지와 고성능 네트워크를 통한 신속한 액세스 및 검색을 포함했다. 연구자들은 100개 이상의 분야별 데이터베이스에 접근할 수 있었다. 2009년 말 TeraGrid 리소스는 2페타플롭의 컴퓨팅 기능과 60페타바이트 이상의 스토리지로 성장했다. 2009년 중반 NSF는 TeraGrid의 운영을 2011년까지 연장하였다.

XSEDE로의 전환

후속 프로젝트는 2011년 5월에 승인되었다.[5] 2011년 7월, 17개 기관의 제휴로 Extreme Science and Engineering Discovery Environment(XSEDE)를 발표했다. NSF는 XSEDE 프로젝트에 5년간 1억 2천 1백만 달러를 지원한다고 발표했다.[6] XSEDE는 일리노이 대학교국립 슈퍼컴퓨팅 응용 프로그램 센터의 John Towns에 의해 주도된다.[6]

건축

2007년 UCSD의 TeraGrid 장비

TeraGrid 자원은 각 자원이 인터페이스와 운영 측면에서 정의된 "서비스"를 제공한다는 점에서 서비스 지향 아키텍처를 통해 통합된다. 컴퓨터 자원은 "Coordinated TeraGrid Software and Services"(CTSS)라는 소프트웨어 패키지를 실행한다. CTSS는 모든 TeraGrid 시스템에서 친숙한 사용자 환경을 제공하여 과학자들이 한 시스템에서 다른 시스템으로 코드를 보다 쉽게 포팅할 수 있도록 한다. CTSS는 또한 싱글 사인온, 원격 작업 제출, 워크플로우 지원, 데이터 이동 도구 등과 같은 통합 기능을 제공한다. CTSS는 Globus Toolkit, Condor, 분산 회계 및 계정 관리 소프트웨어, 검증 및 검증 소프트웨어, 컴파일러, 프로그래밍 툴 및 환경 변수 세트를 포함한다.

테라그리드(TeraGrid)는 시카고, 덴버, 로스앤젤레스에 허브가 있는 초당 10기가비트 광섬유 백본 네트워크를 사용한다. 모든 리소스 공급자 사이트는 초당 10기가비트의 백본 노드에 연결된다. 이용자들은 인터넷2 아빌렌 백본내셔널 람다레일 등 국가연구망을 통해 시설에 접속했다.

사용법

테라그리드 사용자들은 주로 미국 대학에서 왔다. 200개가 넘는 대학에 약 4,000명의 사용자가 있다. 미국의 학술 연구자들은 수행할 작업을 설명하는 추상적인 내용에 기초하여 탐색적 또는 개발 할당(대략 "CPU 시간")을 얻을 수 있다. 보다 광범위한 할당에는 분기별 안전 점검 프로세스 중에 검토되는 제안이 포함된다. 모든 할당 제안은 TeraGrid 웹사이트를 통해 처리된다. 제안자는 자신의 작업을 가장 밀접하게 설명하는 과학 분야를 선택하며, 이를 통해 과학 분야별 테라그리드 할당 및 사용에 대한 보고를 할 수 있다. 2006년 7월 현재 TeraGrid 할당 및 사용에 대한 과학적 개요는 다음과 같다.

할당(%) 사용(%) 사이언티픽 규율
19 23 분자생물학
17 23 물리학
14 10 천문과학
12 21 화학
10 4 재료 연구
8 6 화학, 열 시스템
7 7 대기과학
3 2 어드밴스드 사이언티픽 컴퓨팅
2 0.5 지구과학
2 0.5 생물학적 및 중요 시스템
1 0.5 오션 사이언스
1 0.5 학제간 활동
1 0.5 컴퓨터 및 계산 연구
0.5 0.25 통합 생물학 및 신경과학
0.5 0.25 기계 및 구조 시스템
0.5 0.25 수학 과학
0.5 0.25 전기 및 통신 시스템
0.5 0.25 설계 및 제조 시스템
0.5 0.25 환경생물학

이러한 각 부문은 국립과학재단의 특정 프로그램 영역에 해당한다.

TeraGrid는 2006년부터 Science Gateway 파트너에게 애플리케이션별 서비스를 제공했으며, Science Gateway 파트너는 (일반적으로 웹 포털을 통해) 분야별 과학 및 교육 커뮤니티에 서비스를 제공하고 있다. TeraGrid는 Science Gateways 프로그램을 통해 TeraGrid를 사용할 수 있는 과학자, 학생 및 교육자의 수 측면에서 적어도 한 수 이상의 접근 범위를 넓히는 것을 목표로 한다.

리소스 공급자

유사 프로젝트

참조

  1. ^ Distributed Terascale Facility (DTF). Program Solicitation NSF 01-51. National Science Foundation. January 2001. Retrieved September 23, 2011.
  2. ^ Charlie Catlett (May 21, 2002). The Philosophy of TeraGrid: Building an Open, Extensible, Distributed TeraScale Facility. 2nd IEEE/ACM International Symposium on Cluster Computing and the Grid. p. 8. doi:10.1109/CCGRID.2002.1017101. ISBN 0-7695-1582-7.
  3. ^ "$150 Million TeraGrid Award Heralds New Era for Scientific Computing". News release. National Science Foundation. August 17, 2005. Retrieved September 23, 2011.
  4. ^ Ann Zimmerman; Thomas A. Finholt (August 2008). Report from the TeraGrid Evaluation Study, Part 1: Project Findings (PDF). National Science Foundation. Retrieved September 23, 2011.
  5. ^ National Science Board (May 26, 2011). "Summary Report of the May 10-11, 2011 Meeting" (PDF). Retrieved September 23, 2011.
  6. ^ a b "XSEDE Project Brings Advanced Cyberinfrastructure, Digital Services, and Expertise to Nation's Scientists and Engineers". News release. National Science Foundation. July 25, 2011. Retrieved September 23, 2011.
  7. ^ "Big Red at IU". rt.uits.iu.edu. Retrieved 9 Feb 2015.
  8. ^ "LONI Gets Funding for TeraGrid Research" (PDF). News release. Louisiana State University. September 9, 2009. Archived from the original (PDF) on July 26, 2011. Retrieved September 23, 2011.
  9. ^ S. Matsuokaet et al. (March 2005). "Japanese Computational Grid Research Project: NAREGI". Proceedings of the IEEE. 93 (3): 522–533. doi:10.1109/JPROC.2004.842748. S2CID 22562197.{{cite journal}}: CS1 maint: 작성자 매개변수 사용(링크)

외부 링크