AI 칩 시장 2030년 2860억달러
범용 칩과 커스텀 칩의 이분화
이 기사는 4월 1일 오전 12시07분 '해외 주식 투자의 도우미' GAM(Global Asset Management)에 출고된 프리미엄 기사입니다. GAM에서 회원 가입을 하면 9000여 해외 종목의 프리미엄 기사를 보실 수 있습니다.
[서울=뉴스핌] 황숙혜 기자 = 인공지능(AI) 데이터센터 인프라는 이제 엔비디아식 범용 GPU(그래픽처리장치) 독점 구도가 아니라 범용 GPU와 하이퍼스케일러의 커스텀 ASIC이 공존하는 이원 구조로 재편되는 단계로 접어들었다.
변화의 핵심 축에 브로드컴(AVGO)과 마벨 테크놀로지(MRVL), 대만의 TSMC(TSMC), 그리고 자체 설계 칩으로 전략을 바꾸는 알파벳(GOOGL)과 아마존(AMZN)이 자리잡고 있다.
시장 조사 기관 옴디아(Omdia)가 제시한 최신 전망에 따르면 클라우드와 데이터센터용 AI 칩 시장은 2024년 약 1230억달러에서 2025년 2070억달러로 성장한 뒤 2030년에는 2860억달러 수준까지 확대될 것으로 예상된다.
다만, 성장률은 2022년~2024년 사이 250%를 기록한 뒤 2024년~2025년에는 60%대 후반으로 둔화되고, AI 인프라 지출이 데이터센터 투자에서 차지하는 비중은 2026년경 정점을 찍은 뒤 서서히 완만한 성장으로 전환될 것이라는 분석이다.
이번 보고서는 시장 구조를 GPU 대 ASIC이라는 단순한 기술 구도로 보는 것이 아니라 범용 GPU와 특정 워크로드에 최적화된 커스텀 ASIC이라는 두 축이 함께 성장하는 인프라 구조 변화로 해석한다.
엔비디아(NVDA)와 AMD(AMD) 등 벤더가 공급하는 범용 GPU는 여전히 모델 개발과 실험, 범용 추론을 담당하는 한편 구글 텐서처리장치(TPU)와 아마존웹서비스(AWS) 트레이니엄(Trainium), 메타 MTIA, 마이크로소프트(MSFT) 마이아(Maia) 등 하이퍼스케일러가 설계한 ASIC은 규모가 크면서 반복적인 워크로드에 최적화 해 고정적이고 대량의 트래픽을 처리하는 역할로 분화된다는 시나리오다.
TD 증권 역시 데이터센터 가속기 시장을 논하면서 'GPU vs ASIC'보다 '머천트 vs 커스텀'이라는 관점이 더 유효하다고 강조한다. 오늘날의 고성능 GPU 자체가 이미 특정 행렬 연산에 특화된 ASIC에 가깝고, 궁극적으로는 범용 생태계를 가진 칩인지 아니면 특정 고객과 워크로드에 묶인 칩인지가 경제성을 좌우한다는 지적이다.

일부에서는 GPU와 커스텀 AI 칩을 이분법적인 시각으로 보고 둘 중 누가 승자가 될 것인가를 저울질한다 특히 구글과 아마존 등 하이퍼스케일러들의 자체 칩 개발이 엔비디아의 GPU를 버리는 수순이라는 의견은 전반적인 시장 구조를 제로섬으로 오해한다.
이처럼 GPU와 ASIC을 제로섬 전쟁으로 간주할 경우 시장 구조에 대한 이해를 왜곡할 뿐 아니라 투자 판단을 내리는 데도 함정에 빠질 수 있다고 시장 전문가들은 지적한다.
옴디아와 TD 증권은 고정적인 대량의 워크로드에는 커스텀 ASIC이, 모델 구조가 계속 바뀌는 연구와 실험, 다목적 추론에는 GPU가 더 적합하고, 따라서 궁극적으로 데이터센터 안에서 혼합 배치되는 이른바 '하이브리드'가 기본 구성이 될 가능성이 크다고 본다.

실제로 구글과 아마존, 메타 플랫폼스(META), 마이크로소프트 등 하이퍼스케일러들이 자체 칩을 개발하면서도 여전히 대규모 GPU 계약을 유지하고 있다.
CNBC도 이 같은 하이브리드 조합이 비용과 성능, 유연성 측면에서 가장 현실적이라는 의견을 제시했다 2027년 경 ASIC 출하량이 GPU를 수량 기준으로 넘어서더라도 두 가지 시장이 동시에 성장하는 그림이 보다 현실적이라는 판단이다.
이 같은 맥락에서 보면 엔비디아는 소프트웨어와 네트워크까지 아우르는 범용 플랫폼의 중심에 서 있고, 브로드컴과 마벨은 하이퍼스케일러를 대상으로 커스텀 칩을 설계하는 파트너, TSMC는 이 모든 칩을 실제로 생산하는 파운드리, 알파벳과 아마존은 자체 칩으로 마진과 성능을 끌어올리려는 플랫폼 플레이어라는 식으로 입지가 갈린다.
엔비디아는 여전히 AI 데이터센터 칩 시장에서 절대적인 강자로, 대체 기술이 등장하는 가운데서도 AI 인프라 사이클은 엔비디아 중심으로 돌아가고 있다는 데 시장 전문가들은 공감대를 형성한다.
기술 로드맵 측면에서 엔비디아는 2025년 10월 양산이 본격화된 블랙웰(Blackwell) 아키텍처를 통해 H100 대비 최대 15배 수준의 추론 성능을 제공하고, FP4와 FP8 같은 저정밀 부동소수점 포맷을 활용해 ASIC이 누리던 효율 우위를 상당 부분 잠식하겠다는 전략을 제시하고 있다.
블랙웰 기반 NVL72 랙은 72개의 GPU를 NVLink 5.0으로 연결해 하나의 거대한 추론 및 훈련 시스템처럼 동작하도록 설계돼 있고, 차세대 루빈(Rubin) 아키텍처는 더 큰 리티클 사이즈와 향상된 메모리 대역폭을 바탕으로 이 구성을 확장하는 것으로 알려져 있다.
엔비디아의 방어력은 단순한 칩 성능을 넘어 소위 '생태계 락인'에서 비롯된다. CUDA와 cuDNN, Triton, NeMo로 이어지는 소프트웨어 스택은 지난 10여 년간 딥러닝 연구자와 기업 개발자 커뮤니티의 사실상 표준 플랫폼으로 자리 잡았고, 이는 하드웨어를 바꾸는 순간 개발·옵스 전 과정을 다시 설계해야 한다는 전환 비용으로 이어진다.
최근 분석에서는 고객들이 더 이상 단일 GPU를 고르는 것이 아니라, GPU와 NVLink·InfiniBand 네트워킹, 시스템 레퍼런스 디자인, 소프트웨어까지 묶인 완결형 플랫폼을 구매하고 있다는 점을 강조하면서, 이러한 번들 구조가 엔비디아의 가격 결정력을 유지시키는 요인이라고 평가한다.
CNBC와 투자은행(IB) 보고서들은 브로드컴의 커스텀 칩이 구글과 오픈AI 같은 대형 고객을 확보하면서 엔비디아의 점유율 일부를 테스트하고 있지만, 최소한 향후 5년간은 엔비디아가 AI 가속기 시장에서 50%를 상회하는 점유율을 유지할 것이라는 월가의 컨센서스를 전한다.
엔비디아의 경영진 역시 최근 인터뷰에서 커스텀 칩의 위협을 인정하면서도 자사가 훨씬 다양한 산업과 워크로드를 지원하는 범용 플랫폼이라는 점을 강조한다. 비즈니스 영역이 챗봇에만 국한되지 않는다는 얘기다.
이런 시장 구도에서 AMD와 인텔(INTC)은 명확한 대체 공급업체다. 옴디아는 AMD Instinct GPU가 2024년 이후 소프트웨어 투자를 강화하며 점유율을 확대해 나가고 있다고 평가하지만, CUDA 생태계를 대체하기에는 여전히 거리가 있다는 점도 함께 적시한다.
인텔 역시 가우디(Gaudi) 시리즈와 EMIB, Foveros 같은 패키징 기술을 앞세워 AI 가속기 시장에 복귀를 노리고 있지만, 하이퍼스케일러의 주력 워크로드에서 엔비디아의 자리를 단기간에 위협하기보다는 특정 고객과 워크로드 중심의 보완재로 자리 잡을 가능성이 더 크다는 평가에 힘이 실린다. 결국 범용 GPU 축에서는 엔비디아가 성장률 둔화와 일부 점유율 상실 리스크를 안고 있지만, 생태계와 플랫폼 락인이 상당 기간 방어막으로 작용하는 모양새다.
shhwang@newspim.com













