딥스피드

DeepSpeed
딥스피드
DeepSpeed logo.svg
원본 작성자마이크로소프트 리서치
개발자마이크로소프트
초기 릴리즈2020년 5월 18일; 21개월(2020-05-18)
안정적 해제
v0.5.10 / 2022년 1월 14일; 57일(2022-01-14)
리포지토리github.com/microsoft/DeepSpeed
기록 위치파이톤, CUDA, C++
유형소프트웨어 라이브러리
면허증MIT 라이선스
웹사이트심속의ai

DeepSpeedPyTorch를 위한 오픈 소스 딥러닝 최적화 라이브러리다.[1]이 도서관은 컴퓨팅 성능과 메모리 사용을 줄이고 기존의 컴퓨터 하드웨어에서 더 나은 병렬 처리를 가진 대형 분산형 모델을 훈련하기 위해 설계되었다.[2][3]DeepSpeed는 짧은 지연 시간, 높은 처리량 교육에 최적화되어 있다.1000억개 이상의 매개변수를 가진 모델 훈련용 ZeRO(Zero Drivation Optimizer)를 포함한다.[4]혼합정밀교육, 단일GPU, 다중GPU, 다중노드교육은 물론 맞춤형 모델 병렬화 등이 특징이다.DeepSpeed 소스 코드는 MIT 라이센스에 따라 라이센스가 부여되며 GitHub에서 사용할 수 있다.[5]

이 팀은 최대 6.2배 처리량 향상, 2.8배 빠른 컨버전스, 4.6배 낮은 통신량을 달성했다고 주장했다.[6]

참고 항목

참조

  1. ^ "Microsoft Updates Windows, Azure Tools with an Eye on The Future". PCMag UK. May 22, 2020.
  2. ^ Yegulalp, Serdar (February 10, 2020). "Microsoft speeds up PyTorch with DeepSpeed". InfoWorld.
  3. ^ "Microsoft unveils "fifth most powerful" supercomputer in the world". Neowin.
  4. ^ "Microsoft trains world's largest Transformer language model". February 10, 2020.
  5. ^ "microsoft/DeepSpeed". July 10, 2020 – via GitHub.
  6. ^ "DeepSpeed: Accelerating large-scale model inference and training via system optimizations and compression". Microsoft Research. 2021-05-24. Retrieved 2021-06-19.

추가 읽기

외부 링크