KT 초거대 AI 모델 구축에 엔비디아 플랫폼 채택
2024년 01월 17일
트위터로 보내기페이스북으로 보내기구글플러스로 보내기
23c69a4a26282d76e139a9ce7e1e430c_1705426392_2362.jpg
 

엔비디아(www.nvidia.co.kr )는 KT가 엔비디아 DGX 슈퍼팟(NVIDIA DGX SuperPOD) 플랫폼을 기반으로 초거대 AI 모델 ‘믿음(Mi:dm)’을 구축했다고 소개했다. 엔비디아는 기업의 생성형AI 도입을 가속화할 수 있도록 지원한다. 


KT는 경량 모델부터 초대형 모델에 이르기까지 기업 규모와 사용 목적에 맞게 완전 맞춤형(Full Fine-Tuning)으로 사용 가능하다. 또한 AI 풀스택을 통해 KT클라우드와 함께 믿음의 기업전용 AI 믿음 클라우드팜(Mi:dm CloudFarm)을 패키지로 제공한다. 이를 통해 기업들은 별도 개발과 학습 인프라가 없어도 합리적인 비용으로 초거대 AI를 활용한 서비스를 개발할 수 있다. 


KT는 초거대 AI를 활용하고 학습하고자 하는 모든 기업에게 믿음의 파운데이션 모델(Foundation Model)을 개방한다. 이를 위해 KT 믿음 스튜디오(KT Mi:dm Studio)라는 전용 포털을 오픈해 고객에게 편리한 개발 환경을 제공한다. 여기선 KT 믿음의 파운데이션 모델을 직접 선택, 학습, 서빙 할 수 있는 맞춤형 환경이 구성된다. 


파운데이션 모델이란, 방대한 데이터셋으로 학습한 초거대 AI 핵심 기반 모델을 말한다. 오픈 AI(OpenAI)사의 자연어 처리 모델 GPT가 대표적이다. 보다 복잡한 기술 구현이나 시스템 구축을 위해 기업에서 원하는 형태로 미세조정(Fine-Tuning: 파인 튜닝)을 거쳐 다양한 AI 응용서비스를 만들 수 있다. 


초거대 AI를 사용하고 싶지만 수십 억에서 수천 억에 달하는 파라미터 모델을 직접 만들 여력이 없는 대다수 기업들의 경우, 기존의 파운데이션 모델을 튜닝하는 방법을 활용했다. 하지만 데이터 자주권(Sovereign AI) 차원에서 빅테크에 데이터가 종속될 수 있다는 보안 우려가 있고, 무엇보다 기존 상업용 파운데이션 모델은 풀 파인 튜닝(FFT)을 제공하지 못한다는 한계가 있었다. 


KT는 이러한 기업고객들의 갈증을 해결하고자 국내 업계 최초로 조(兆)단위 데이터의 사전 학습을 완료한 자체 파운데이션 모델 믿음을 개방했다. 이를 통해 LLM(대규모 언어 모델)의 B2B 사업화를 가속하고, 궁극적으로 기업들이 원하는 AI 사업 모델과 응용 서비스의 폭발적 확산을 이끌어낸다는 계획이다. 


아울러 기존 대비 약 27% 가까운 GPU 학습 비용 절감이 가능한 KT 클라우드(KT Cloud)의 HAC(Hyperscale AI Computing) 서비스, 추론 비용을 기존 대비 50% 절감한 리벨리온(Rebellions)의 NPU 인프라 등 AI 풀스택을 효율적인 AI 개발 환경을 위한 맞춤형 통합 패키지로 함께 제공할 예정이다. 


엔비디아 DGX 슈퍼팟 플랫폼을 기반으로 KT는 믿음을 개발했다. 믿음은 대규모의 데이터를 학습한 LLM으로, 설계된 목적 외 다양한 과제에 대한 답변도 생성 가능하다. 또한 목적에 따라 개별의 데이터 수집, 학습, 추론이 필요했던 기존 모델과 달리 하나의 모델로 여러가지 업무들을 동시에 수행한다. 


엔비디아 네모 프레임워크(NeMo Framework)는 믿음 파운데이션 모델 학습에 활용됐다. 안전하고 확장 가능한 AI를 지원하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 제품군에 포함된 네모 프레임워크는 데이터 처리, 학습, 평가, 생성형 AI 모델 추론 등 LLM 파이프라인 전반에 걸친 완벽한 솔루션으로 주목받고 있다. 엔비디아 네모는 대규모로 LLM을 신속하게 학습, 사용자 맞춤화, 배포함으로써 투자수익률(ROI)을 향상시킨다. 아울러 멀티 노드와 멀티 GPU 학습으로 처리량을 극대화해 LLM 학습 시간도 최소화한다. 엔비디아는 KT와 협력해 최적의 3D 병렬처리(parallelism)를 찾아 초거대AI 믿음 학습에 사용되는 계산 처리량을 극대화했다.

그래픽 / 영상
많이 본 뉴스