엔비디아 H100 GPU, MLPerf 벤치마크서 생성형 AI 성능 이정표 수립
2023년 06월 29일
트위터로 보내기페이스북으로 보내기구글플러스로 보내기
66cc7e64aba1343c4eb1b4c7d8f9dafb_1687971799_3219.jpg
 

엔비디아( www.nvidia.co.kr )가 MLPerf 벤치마크에서 엔비디아 H100 텐서 코어 GPU(NVIDIA H100 Tensore Core GPU)가 생성형 AI를 구동하는 대규모 언어 모델(LLM)에서 최고의 AI 성능을 제공한다고 밝혔다. 


최신 MLPerf 트레이닝 벤치마크에서 H100 GPU는 8개의 테스트 모두에서 신기록을 세웠으며, 생성형 Al를 위한 새로운 MLPerf 테스트에서 탁월한 성능을 발휘했다. 이러한 우수성은 개별 가속기와 대규모 서버에서 모두 제공된다. 스타트업 인플렉션(Inflection) AI가 공동 개발하고 GPU 가속 워크로드 전문 클라우드 서비스 제공업체인 코어위브(CoreWeave)가 운영하는 3,584개의 H100 GPU로 구성된 상용 클러스터에서 이 시스템은 11분 이내에 대규모 GPT-3트레이닝 벤치마크를 달성했다. 


현존하는 최고의 성능

인플렉션 AI는 이러한 성능을 활용해 최초의 개인용 AI인 Pi(Personal Intelligence)의 기반이 되는 고급 LLM을 구축했다. 인플렉션은 사용자가 간단하고 자연스러운 방식으로 상호 작용할 수 있는 개인용 AI를 개발하는 AI 스튜디오 역할을 하게 된다. 


이러한 사용자 경험은 이번 MLPerf 벤치마크에서 입증된 성능을 반영한다. H100 GPU는 대규모 언어 모델, 추천자, 컴퓨터 비전, 의학 이미지 및 음성 인식을 포함한 모든 벤치마크에서 최고의 성능을 선보였다. H100 GPU는 8개의 테스트를 모두 실행한 유일한 칩으로, 엔비디아 AI 플랫폼의 뛰어난 활용성을 입증했다. 


66cc7e64aba1343c4eb1b4c7d8f9dafb_1687971596_9123.jpg
트레이닝은 일반적으로 많은 GPU가 함께 작동해 대규모로 실행되는 작업이다. 모든 MLPerf 테스트에서 H100 GPU는 AI 훈련을 위한 새로운 대규모 성능을 기록했다. H100 GPU 서버의 전체 스택에 걸친 최적화를 통해 제출물이 수백 대에서 수천 대의 H100 GPU로 확장됐다. 이에 따라 까다로운 LLM 테스트에서도 거의 선형에 가까운 성능 확장이 가능했다. 


또한 코어위브는 클라우드에서 로컬 데이터센터에서 실행되는 AI 슈퍼컴퓨터와 유사한 성능을 제공했다. 이는 코어위브가 사용하는 엔비디아 퀀텀 인피니밴드(Quantum InfiniBand) 네트워킹의 저지연 네트워킹을 입증하는 결과다. 


확장되는 엔비디아 AI 에코시스템

이번 라운드에는 약 12개의 기업이 엔비디아 플랫폼에 대한 결과를 제출했다. 이들의 연구는 엔비디아 AI가 업계에서 가장 광범위한 머신 러닝 에코시스템의 지원을 받고 있음을 보여준다. 에이수스(ASUS), 델 테크놀로지스(Dell Technologies), 기가바이트(GIGABYTE), 레노버(Lenovo), QCT를 비롯한 주요 시스템 제조업체에서 제출한 30개 이상의 출품작이 H100 GPU에서 실행됐다.

그래픽 / 영상
많이 본 뉴스