엔비디아, H200 GPU로 일본 ABCI 3.0 슈퍼컴퓨터 지원
2024년 07월 16일
트위터로 보내기페이스북으로 보내기구글플러스로 보내기
d9ba8d96fbc719c49ada479e48e452f6_1721063700_8236.jpg
 

엔비디아(www.nvidia.co.kr )가 일본 산업기술총합연구소(AIST)의 ABCI 3.0 슈퍼컴퓨터에 수천 개의 엔비디아(NVIDIA) H200 텐서 코어(Tensor Core) GPU가 통합된다고 밝혔다. 이를 통해 일본의 AI 주권과 연구 개발 역량이 강화될 것으로 기대된다. 아울러 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise, HPE) 크레이(Cray) XD 시스템은 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 채택해 우수한 성능과 확장성을 제공할 예정이다. 


ABCI 3.0은 AI 연구 개발을 발전시키기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전이다. 이번 협력은 AI 역량을 발전시키고 기술 독립성을 강화하려는 일본의 노력을 강조한다. 


AIST의 이사인 요시오 다나카(Yoshio Tanaka)는 “2018년 8월, 우리는 세계 최초의 대규모 개방형 AI 컴퓨팅 인프라인 ABCI를 출범했다. 지난 몇 년간 ABCI를 관리해 온 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하게 됐다. 엔비디아와 HPE와의 협력을 통해 ABCI 3.0이 일본 생성형 AI 연구 개발 역량을 더욱 발전시킬 컴퓨팅 인프라로 발전하는 것이 목표”라고 말했다. 


AIST 솔루션스(Solutions) 생산 겸 ABCI 운영 책임자인 히로타카 오가와(Hirotaka Ogawa)는 "생성형 AI가 글로벌 변화를 촉진할 준비를 하고 있는 지금, 일본 내에서 연구 개발 역량을 빠르게 배양하는 것이 매우 중요하다. 엔비디아와 HPE의 협력을 통한 ABCI의 대대적인 업그레이드는 일본 산업과 학계에서 ABCI의 리더십을 강화해 일본이 AI 개발 분야에서 글로벌 경쟁력을 갖추는 미래 혁신의 기반이 될 것으로 확신한다”고 말했다. 


엔비디아 H200은 초당 4.8테라바이트(TB/s)의 속도로 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 최초의 GPU이다. H200의 더 크고 빠른 메모리는 생성형 AI와 거대 언어 모델(large language model, LLM)을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총소유비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 


엔비디아 H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드에 대해 ABCI의 이전 세대 아키텍처보다 에너지 효율이 15배 더 높다. 


네트워킹 장치가 데이터에 대한 연산을 수행해 CPU의 작업을 분산(offloading)시키는 인-네트워크 컴퓨팅(In-Network Computing)과 고급 엔비디아 퀀텀-2 인피니밴드의 통합은 집약적인 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적인 고효율, 고속, 저지연 통신을 보장한다. 


ABCI는 세계 최고 수준의 컴퓨팅과 데이터 처리 능력을 자랑하며 산학관 공동 AI 연구 개발을 가속화하는 플랫폼 역할을 하고 있다. METI의 막대한 투자는 AI 개발 역량을 강화하고 생성형 AI의 사용을 가속화하려는 일본의 전략적 비전을 입증한다. 일본은 AI 슈퍼컴퓨터 개발에 보조금을 지원함으로써 차세대 AI 기술 개발에 소요되는 시간과 비용을 줄여 글로벌 AI 환경의 리더로 자리매김하는 것을 목표로 한다.

그래픽 / 영상
많이 본 뉴스