인텔은 첨단 반도체 기술을 발표하는 업계 컨퍼런스인 ‘핫 칩스 2024(Hot Chips 2024)’에서 업계 최초 고속 AI 데이터 처리를 위한 완전 통합형 광학 컴퓨트 인터커넥트(OCI) 칩렛 과 함께 데이터센터, 클라우드, 네트워크에서 엣지 및 PC에 이르기까지 AI 사용 사례 전반에 걸쳐 폭넓고 깊이 있는 기술을 선보였다. 또한 2025년 상반기 출시 예정인 제온 6 SoC(Intel Xeon 6 SoC, 코드명 그래나이트 래피즈-D)에 대한 세부 정보도 공개했다.
인텔 네트워크 및 엣지 그룹의 페레 몬클루스(Pere Monclus) CTO는 “인텔은 소비자 및 엔터프라이즈 AI 사용 전반에 걸쳐 가능성을 새로이 정의하는 데 필요한 플랫폼, 시스템 및 기술을 지속적으로 제공하고 있다. AI 워크로드가 심화됨에 따라 인텔은 광범위한 업계 경험을 통해 고객이 혁신, 창의성 및 이상적인 비즈니스 결과를 이끌어내는 데 필요한 것이 무엇인지 이해할 수 있게 되었다”라며 “더 높은 성능의 실리콘과 더 많은 플랫폼 대역폭이 필수적이지만, 인텔은 모든 워크로드마다 고유한 과제가 있다는 사실도 잘 알고 있다. 데이터센터용으로 설계된 시스템은 엣지용으로 용도를 변경할 수 없다. 컴퓨팅 전반에 걸쳐 시스템 아키텍처에 대한 전문성을 갖춘 인텔은 차세대 AI 혁신을 주도할 수 있는 유리한 위치를 점하고 있다”고 밝혔다.
핫 칩스 2024에서 인텔은 인텔 제온 6 SoC, 루나 레이크 클라이언트 프로세서, 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerator), OCI 칩렛과 관련된 기술 논문 4건을 발표했다.
엣지를 위해 설계된 차세대 인텔 제온 6 SoC
프라빈 모수르(Praveen Mosur) 인텔 펠로우 겸 네트워크 및 엣지 실리콘 아키텍트는 인텔 제온 6 시스템 온 칩(SoC) 설계와 불안정한 네트워크 연결, 제한된 공간과 전력 같은 엣지 특유의 문제를 해결할 수 있는 방법에 대한 새로운 정보를 공개했다. 전 세계적으로 90,000건 이상의 엣지 배포를 통해 얻은 정보를 바탕으로, 이 SoC는 인텔 역사상 가장 엣지에 최적화된 프로세서가 될 예정이다. 단일 시스템 아키텍처와 통합된 AI 가속 기능을 사용하여 엣지 디바이스에서 엣지 노드까지 확장할 수 있어, 기업은 데이터 수집부터 추론에 이르기까지 전체 AI 워크플로우를 보다 쉽게, 효율적으로, 그리고 안전하게 관리할 수 있다. 이를 통해 의사 결정이 개선되고 자동화가 증가하며 고객에게 더 큰 가치를 제공할 수 있다.
또한 인텔 제온 6 SoC는 새로운 미디어 가속화 기술을 탑재하여 실시간 OTT, VOD 및 방송용 비디오 트랜스코드 및 분석 기능을 제공하는 등 엣지 및 네트워크 워크로드의 성능 및 효율을 개선하기 위한 기능을 제공한다. 추론 성능 향상을 위한 인텔 AVX(Advanced Vector Extensions) 및 인텔 AMX(Advanced Matrix Extensions), 보다 효율적인 네트워크 및 스토리지 성능을 위한 인텔 QAT (QuickAssist Technology), vRAN(virtualized RAN)의 전력소모 감축을 위한 인텔 vRAN 부스트(Intel vRAN Boost) 그리고 사용자가 기본 하드웨어에서도 클라우드처럼 편리하게 AI 솔루션을 구축, 전개, 실행, 관리 및 엣지 스케일링 할 수 있도록 하는 인텔 타이버 엣지 플랫폼(Tiber Edge Platform) 지원을 제공한다.
차세대 AI PC를 위한 루나 레이크:
아리크 기혼(Arik Gihon) 인텔 클라이언트 CPU SoC 수석 아키텍트는 루나 레이크(Lunar Lake) 클라이언트 프로세서가 x86 전력 효율성에서 새로운 기준을 세우는 동시에 최고의 코어, 그래픽, 클라이언트 AI 성능을 제공하도록 설계된 방법에 대해 발표했다. 새로운 P-코어와 E-코어는 이전 세대에 비해 시스템 온 칩 전력을 최대 40%까지 낮추면서 뛰어난 성능을 제공한다. 새로운 신경처리장치(NPU)는 최대 4배 더 빠른 속도를 자랑하며, 이전 세대 대비 생성형 AI(GenAI) 성능을 크게 향상시킨다. 또한, 새로운 Xe 2 그래픽처리장치(GPU) 코어도 게임 및 그래픽 성능을 이전 세대보다 1.5배 향상시킨다.
생성형 AI 학습 및 추론을 위해 설계된 인텔 가우디 3 AI 가속기
로만 카플란(Roman Kaplan) AI 가속기 수석 아키텍트는 막대한 연산 능력을 요구하는 생성형 AI 모델의 학습과 배포와 관련해 발표했다. 단일 노드에서 수천 개의 거대한 노드 클러스터로 시스템이 확장됨에 따라 비용과 전력 문제가 커지게 된다.
인텔 가우디 3 AI 가속기는 효율적인 행렬 곱셈 엔진, 이중 캐시 통합, 광범위한 RoCE(RDMA over Converged Ethernet) 네트워킹 등 다양한 전략을 채택하고 있다. 이를 통해 연산, 메모리 및 네트워킹 아키텍처를 최적화하여 이러한 문제를 해결한다. 이를 통해 가우디 3 AI 가속기는 AI 데이터센터가 더욱 비용 효율적이고 지속 가능하게 운영될 수 있도록 성능과 전력 효율성을 크게 향상시켜, 생성형 AI 워크로드 배포 시 발생하는 확장성 문제를 해결한다.
초당 4 테라비트 OCI 칩렛을 이용한 XPU 간 연결 기술
인텔 IPS(Integrated Photonics Solutions) 그룹은 업계 최초로 완전 통합 광학 컴퓨트 인터커넥트(Optical Compute Interconnect, 이하 OCI) 칩렛을 인텔 CPU에 코-패키징(co-packaged)하여 실시간 데이터를 실행하는 최첨단 기술을 시연했다.
사이드 파톨로로우미(Saeed Fathololoumi) 인텔 수석 엔지니어이자 통합 포토닉스 리드는 OCI 칩렛이 최대 100m의 광섬유에서 각 방향으로 32Gbps 데이터 전송 64채널을 지원하도록 설계되었으며, 더 높은 대역폭, 더 낮은 전력 소비, 더 긴 도달 거리에 대한 AI 인프라의 수요를 충족시킬 수 있을 것으로 기대한다고 밝혔다. 인텔의 OCI 칩렛은 일관된 메모리 확장 및 리소스 분리를 포함한 새로운 컴퓨팅 아키텍처와 CPU/GPU 클러스터 연결의 향후 확장성을 지원하며 데이터 센터 및 고성능 컴퓨팅(HPC) 애플리케이션을 위해 새롭게 등장하는 AI 인프라에서 코-패키징된 광학 I/O을 지원함으로써 고대역폭 인터커넥트의 비약적인 발전을 보여준다.
AI는 기업과 소비자들이 혁신적인 아이디어를 전례없이 빠르게 펼칠 수 있도록 하고 있다. 예를 들어 소비자들은 이제 생산성, 창의성, 게임, 엔터테인먼트, 보안을 모두 향상시킨 지능적인 AI PC를 갖추게 되었다. 기업들은 엣지 컴퓨팅과 AI를 활용하여 의사 결정 과정을 개선하고 자동화를 촉진하며 내부 데이터로부터 가치를 창출할 수 있다.
올해 인텔은 핫 칩스 2024의 기술 심층 분석 세션에서 자사의 제품 부서에서 차세대 AI 기술을 시장에 선보이는 데 있어 고유한 기술적 관점을 제시했다.