그래프코어, 획기적인 성능의 최신 AI 연산 시스템 출시...KT가 가장 먼저 도입
2021년 11월 19일
트위터로 보내기페이스북으로 보내기구글플러스로 보내기

5f5237a8caedc45cfc0d78d686e9ee58_1637277762_6639.jpg


그래프코어(Graphcore)가 최신 AI 연산 시스템 IPU-POD128과 IPU-POD256을 출시했다. 


각각 32페타플롭스(PFlops, 초당 32,000조번 연산), 64페타플롭스의 AI 연산속도를 지원하는 IPU-POD128과 IPU-POD256은 그래프코어가 지금까지 선보인 IPU-POD 시리즈 중 가장 높은 성능을 제공한다. 머신 인텔리전스 확장을 위해 특별 설계된 아키텍처로써 혁신적인 기능을 제공하는 해당 제품을 통해 그래프코어는 AI 슈퍼컴퓨팅에 대한 기술 역량을 한층 확대할 수 있게 됐다. 

 

클라우드 하이퍼스케일러, 국립 과학 컴퓨팅 센터는 물론, 금융 서비스나 제약 업계에서 대규모 AI 팀을 운영하는 기업에 이상적인 새로운 IPU-POD 시리즈는 시스템 전반에 걸쳐 대형 트랜스포머 기반 언어 모델을 빠르게 훈련시키고, 프로덕션 환경에서 대규모 상용 AI 추론 애플리케이션을 구동하는 것이 특징이다. 뿐만 아니라, 시스템을 더 작고 유연한 vPOD로 분할해 개발자들의 IPU 활용도를 높이고, GPT 및 그래프신경망(GNN) 같은 새로운 모델을 활용해 과학적 발견을 가속화하도록 지원한다. 

 

IPU-POD128과 IPU-POD256은 BERT, ResNet-50과 같이 광범위하게 사용되는 언어 및 비전 모델을 활용한 벤치마크 테스트 결과에서 인상적인 훈련 성능과 매우 효율적인 확장 성능을 보여주었다. 그래프코어는 향후 소프트웨어 개선을 통해 이러한 성능이 더욱 향상될 것이라는 설명이다.

 

5f5237a8caedc45cfc0d78d686e9ee58_1637277678_565.jpg

<(왼쪽부터) ResNet-50와 BERT 언어 모델을 활용한 MLPerf 벤치마크 테스트 결과> 

 

IPU는 프로세서에 메모리가 통합돼 있어 BERT, ResNet-50과 같은 기존의 대형 언어 모델에 탁월한 성능을 제공할 뿐 아니라, 일반적인 유형의 연산도 지원하여 희소 곱셈이나 더욱 세분화된 연산도 보다 효율적으로 수행한다. 이러한 특성은 EfficientNet 모델군은 물론, 그래프 신경망(GNN)이나 여러 비신경망 머신러닝 모델에도 유용하다. 

 

혁신적인 연산 성능에 대한 고객의 요구 충족

KT는 IPU-POD128을 가장 먼저 도입한 파트너 중 하나다. 이미희 KT 클라우드·DX 사업본부장은 “KT는 국내 최초로 IDC 내에 고집적 AI Zone을 구축하고 그래프코어 IPU를 활용해 ‘KT 하이퍼스케일 AI 서비스’를 제공하고 있다. 현재 다양한 기업과 연구기관에서 해당 서비스를 이용하고 있거나, GPU에서 IPU로의 전환을 위한 테스트를 진행하고 있다. KT는 이러한 호응에 힘입어 시장에서 지속적으로 요구되는 초대규모 AI HPC 환경을 지원하고자 2개의 그래프코어 IPU-POD64를 확장 연결한 IPU-POD128로 ‘하이퍼스케일 AI 서비스’ 확대를 진행중”이라고 설명했다. 

 

이어, “KT는 IPU-POD128을 가장 먼저 도입한 한국의 파트너사로, 이미 IPU-POD128이 제공하는 획기적인 연산 성능의 이점을 자사 AI 연구개발에 적용해 나가고 있으며, B2B 시장 확대를 위해서도 그래프코어 및 메가존 클라우드와 협력하고 있다. 이를 통해 32페타플롭스 수준의 AI 연산 처리가 가능해져 더욱 많은 고객들이 대규모 AI 모델에 대한 학습 및 추론에 활용할 수 있을 것으로 기대된다. 더불어, 전력소모량의 최적화를 통환 친환경 AI 연구개발에도 기여할 것으로 판단된다”고 덧붙였다. 

 

확장 가능하고 유연한 솔루션

그래프코어는 새로운 머신 인텔리전스 접근법을 탐구하는데 최적화된 IPU-POD16과 AI 연산 역량 구축에 이상적인 IPU-POD64에 이어, 더 빠른 혁신과 성장을 추구하는 기업을 지원하기 위해 IPU-POD128과 IPU-POD256을 새롭게 선보임으로써, AI 여정의 모든 단계에서 고객의 요구를 충족하겠다는 노력을 한층 가속화한다는 방침이다. 

 

IPU-POD128과 IPU-POD256은 여타 IPU-POD 시스템과 마찬가지로 AI 연산과 서버가 분리되어 여러 AI 워크로드에 가능한 최고의 성능을 제공하며, 이를 통해 최적의 총소유비용(TCO)을 실현한다. 또한, 그래프코어가 최근에 발표한 그래프코어 스토리지 파트너의 기술을 활용하여 시스템 스토리지를 특정 AI 워크로드에 맞게 최적화할 수 있다. 

 

IPU-POD128과 IPU-POD256은 모두 현재 아토스(ATOS)를 포함한 그래프코어의 시스템 통합 파트너나 그래프클라우드(Graphcloud)를 통해서 이용 가능하다. 

그래픽 / 영상
많이 본 뉴스