퀄컴이 인공지능(AI) 가속용 반도체를 새롭게 공개하며 엔비디아와 AMD가 주도하던 데이터센터 시장 경쟁에 본격 가세했다. 이번 발표 이후 퀄컴의 주가는 11% 급등했다.
회사는 2026년 상용화 예정인 ‘AI200’과 2027년 출시될 ‘AI250’을 선보였다. 두 제품 모두 액체 냉각 시스템을 갖춘 서버 랙 전체를 채우는 형태로, 엔비디아와 AMD의 GPU 서버 구조와 유사하다. 퀄컴은 이들 칩이 최대 72개의 칩을 하나의 시스템처럼 작동시킬 수 있다고 밝혔다.
스마트폰과 무선통신 칩 중심으로 사업을 펼쳐온 퀄컴이 대규모 데이터센터 시장에 진입하는 것은 이번이 처음이다. 회사는 AI200과 AI250이 자사 모바일 칩 ‘헥사곤(HEXAGON)’ 신경처리장치(NPU) 기술을 기반으로 개발됐다고 설명했다.
데이터센터 및 엣지 부문 총괄 듀르가 말라디는 “우선 다른 분야에서 기술력을 입증한 뒤 데이터센터 시장으로 확장했다”고 밝혔다. 퀄컴은 이번 진입으로 빠르게 성장 중인 AI 서버팜 시장에서 새로운 주자로 떠오를 전망이다.
맥킨지에 따르면 2030년까지 전 세계 데이터센터 설비에 6조7천억 달러 이상이 투자될 예정이며, 대부분이 AI 칩 중심 시스템으로 향할 것으로 예상된다.
현재 AI 반도체 시장은 엔비디아가 90% 이상 점유하며 독보적 위치를 차지하고 있고, AMD가 2위를 지키고 있다. 이들 칩은 오픈AI의 GPT 등 대규모 언어모델 학습에 주로 사용된다. 이에 퀄컴을 비롯해 구글, 아마존, 마이크로소프트 등이 자체 AI 가속기 개발에 속도를 내고 있다.
퀄컴은 이번 신제품이 AI 모델의 ‘추론(inference)’ 단계에 최적화됐다고 밝혔다. 회사는 신규 랙 시스템의 전력 소비가 160킬로와트에 그치며, 엔비디아 GPU 대비 운영 비용이 낮다고 강조했다. 또한 단일 AI 카드당 768GB의 메모리를 지원해 경쟁사 제품보다 높은 처리 효율을 제공한다고 덧붙였다. 또한 개별 고객의 맞춤형 서버 구축을 지원하기 위해 칩과 부품을 별도 판매할 계획이며, 일부 중앙처리장치(CPU) 부품은 엔비디아나 AMD와 같은 경쟁사에도 공급 가능하다고 밝혔다.
