엔비디아, 강력한 AI 슈퍼컴퓨팅 GPU ‘A100 80GB GPU’ 공개
2020년 11월 18일
트위터로 보내기페이스북으로 보내기구글플러스로 보내기

8ad136dd7923dd9d40a3ffd81876f829_1605653957_8211.jpg


엔비디아(www.nvidia.co.kr , CEO 젠슨 황)가 엔비디아 HGX 인공지능(AI) 슈퍼컴퓨팅 플랫폼을 구동하는 새로운 엔비디아 A100 80GB GPU를 공개했다. A100 80GB GPU는 이전 모델 대비 2배 높아진 메모리는 물론, 연구자 및 엔지니어들의 과학적 발견과 AI 혁신을 지원하는 전례 없는 속도와 성능을 제공한다. 

 

HBM2e 기술이 적용된 해당 제품은 A100 40GB GPU의 고대역폭 메모리를 2배인 80GB로 늘리고, 초당 2테라바이트(TB) 이상의 메모리 대역폭을 제공한다. 이를 통해 세계에서 가장 빠른 데이터센터 GPU인 A100에 데이터를 신속하게 공급하여 연구자들이 애플리케이션을 더욱 빠르게 가속화하고, 대규모의 모델 및 데이터셋을 활용할 수 있도록 한다. 

 

엔비디아 응용 딥 러닝 리서치 부문 부사장 브라이언 카탄자로(Bryan Catanzaro)는 “고성능컴퓨팅(HPC)과 AI 분야에서 최상의 연구 결과를 내기 위해서는 방대한 모델을 구축해야 하는데, 이는 어느때보다 더 높은 메모리 용량과 대역폭을 요구하고 있다. A100 80GB GPU는 불과 6개월 전에 출시된 이전 모델 보다 2배 높은 메모리를 제공한다. 또한, 초당 2TB의 속도로 연구자들이 중요한 과학 및 빅 데이터 과제를 해결하도록 돕는다”고 말했다. 

 

엔비디아 A100 80GB GPU는 함께 발표된 엔비디아 DGX A100과 DGX 스테이션 A100(DGX Station A100) 시스템에서 이용 가능하며, 해당 제품들은 이번 분기에 출하될 예정이다. 

 

업계 선도적인 시스템 공급업체인 아토스(Atos), 델 테크놀로지스(Dell Technologies), 후지쯔(Fujitsu), 기가바이트(GIGABYTE), HPE, 인스퍼(Inspur), 레노버(Lenovo), 퀀타(Quanta), 슈퍼마이크로(Supermicro)는 2021년 상반기부터 A100 80GB GPU가 탑재된 HGX A100 통합 베이스보드로 구축된 시스템을 제공할 계획이다. 

 

방대한 데이터 워크로드 지원

새로운 A100 80GB GPU는 40GB 버전의 다양한 기능을 기반으로 설계됐으며, 막대한 데이터 메모리를 요구하는 광범위한 애플리케이션에 이상적이다. 

 

AI 훈련에 있어 DLRM과 같은 추천 시스템 모델에는 수십억 명의 사용자와 수십억 개의 제품을 나타내는 방대한 테이블을 포함하고 있다. A100 80GB GPU는 최대 3배 빠른 속도를 제공하므로 기업은 이러한 유형의 모델을 신속하게 재훈련해 매우 정확한 추천 서비스를 제공할 수 있다. 

 

A100 80GB GPU는 뛰어난 언어 생성 기능을 갖춘 GPT-2 자연어 처리 모델과 같이 단일 HGX 탑재 서버에서 더 많은 매개변수를 가진 방대한 모델을 훈련할 수 있다. 이를 통해 구현에 많은 시간이 소요되고, 여러 노드에서 느리게 실행될 수 있는 데이터 혹은 모델을 위한 병렬처리 아키텍처의 필요성을 없앤다. 

 

A100은 멀티 인스턴스 GPU(MIG) 기술을 통해 최대 7개의 GPU 인스턴스로 분할할 수 있으며, 각각의 인스턴스는 10GB 메모리를 갖는다. 해당 기술은 안전한 하드웨어 격리를 제공하고, 다양한 소규모 워크로드를 위해 GPU 활용도를 극대화한다. RNN-T와 같은 자동 음성 모델의 AI 추론의 경우, 단일 A100 80GB MIG 인스턴스가 훨씬 더 큰 배치 사이즈를 작업해 1.25배 더 많은 추론 처리량을 제공한다. 

 

TB규모의 리테일용 빅데이터 분석 벤치마크에서 A100 80GB GPU는 최대 2배로 높은 성능을 달성하며, 가장 큰 데이터셋에서 신속한 통찰력을 제공하는 이상적인 플랫폼임을 입증했다. 이를 통해, 기업들은 동적으로 데이터가 업데이트됨에 따라 실시간으로 주요 의사결정을 내릴 수 있다. 

 

A100 80GB GPU는 기상 예측과 양자 화학과 같은 분야의 과학 애플리케이션을 빠르게 가속화할 수 있다. 소재 시뮬레이션인 퀀텀 에스프레소(Quantum Espresso)는 A100 80GB GPU의 단일 노드로 성능을 2배 가까이 향상시켰다. 

 

마쓰오카 사토시(Satoshi Matsuoka) 일본 이화학연구소(RIKEN) 컴퓨터 사이언스 센터 이사는 “빠르고 충분한 메모리 대역폭과 용량은 슈퍼컴퓨팅 애플리케이션의 높은 성능을 구현하는 데 필수적이다. 세계 최고 수준으로, 초당 2TB 대역폭을 제공하는 HBM2e GPU 메모리를 갖춘 엔비디아 A100 80GB GPU는 애플리케이션 성능을 향상시키는 데 상당한 도움이 될 것”이라고 설명했다. 

 

A100 80GB GPU의 주요 특징

A100 80GB GPU는 획기적인 엔비디아 암페어(Ampere) 아키텍처의 여러 기능을 포함한다. 

 

●  3세대 텐서코어(Tensor Core): 새로운 TF32 형식, 2.5배 뛰어난 HPC 성능을 제공하는 FP64, 20배 향상된 AI 추론을 지원하는 INT8, BF16 데이터 포맷을 지원한다. 이를 통해 볼타(Volta) V100 대비 20배 높은 AI 처리량을 제공한다.

 

●  더 크고 빠른 HBM2e GPU 메모리: 메모리 용량을 2배 늘려 업계 최초로 초당 2TB 이상의 메모리 대역폭을 제공한다.

 

●  MIG 기술: 격리된 인스턴스 당 메모리를 두 배로 늘려 각각 10GB 메모리를 갖는 최대 7개의 GPU를 제공한다.

 

●  구조적 희소성: 희소 모델(sparse model)을 추론하는 속도를 최대 2배까지 향상시킨다.

 

●  3세대 NV링크(NVLink) 및 NV스위치(NVSwitch): 이전 세대 연결 기술에 비해 2배 높은 GPU-투-GPU 대역폭을 제공함으로써 데이터 집약적 워크로드를 위해 GPU로의 데이터 전송을 초당 600GB로 가속화한다. 

 

엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼

A100 80GB GPU는 엔비디아 GPU, 엔비디아 NV링크, 엔비디아 인피니밴드(InfiniBand) 네트워킹과 완벽하게 최적화된 엔비디아 AI, HPC 소프트웨어 스택을 통해 최상의 AI 애플리케이션 성능을 제공한다. 이를 통해 연구자와 과학자들은 HPC, 데이터 애널리틱스, 딥 러닝 컴퓨팅 방법을 통합해 과학적 발전을 도모할 수 있다.

그래픽 / 영상
많이 본 뉴스