브로드컴 커스텀 칩의 표준
하이퍼스케일러 자체 칩 의미는
이 기사는 4월 1일 오전 12시08분 '해외 주식 투자의 도우미' GAM(Global Asset Management)에 출고된 프리미엄 기사입니다. GAM에서 회원 가입을 하면 9000여 해외 종목의 프리미엄 기사를 보실 수 있습니다.
[서울=뉴스핌] 황숙혜 기자 = 브로드컴(AVGO)은 하이퍼스케일러용 커스텀 AI 서버용 ASIC의 사실상 표준 파트너로 평가받는다.
시장 조사 업체 카운터포인트 리서치(Counterpoint Research)는 마이크로소프트(MSFT)와, 구글, 아마존(AMZN), 메타 플랫폼스(META), 오픈AI(OpenAI) 등 상위 10개 하이퍼스케일러가 사용하는 AI 서버용 커스텀 ASIC 설계 시장에서 브로드컴이 2027년경 약 60%의 점유율을 차지할 것이라고 전망한다.
보고서는 특히 TPUs와 Trainium, MTIA, Maia 같은 내부 칩 수요가 2024년에서 2027년 사이 세 배 가까이 증가하면서 브로드컴이 이들 칩의 설계 파트너로서 구조적인 성장 레버리지를 확보했다고 분석한다.
CNBC를 포함한 주요 외신에 따르면 브로드컴은 이미 구글 TPU와 마이크로소프트 Maia, 메타 MTIA, 오픈AI의 차세대 '타이탄' 칩으로 거론되는 프로젝트들에 깊숙이 관여하고 있고, 최근에는 오픈AI와 10GW 규모의 커스텀 칩 계약을 체결하며 고객 포트폴리오를 한층 넓혔다.
브로드컴의 비즈니스 모델은 엔비디아와 근본적으로 다르다. 엔비디아가 자사 브랜드 GPU와 시스템을 판매하는 머천트 벤더라면, 브로드컴은 고객 로고 뒤에 숨어서 주문자 설계 생산 방식으로 칩을 공동 개발하는 파트너에 가깝다.
이는 한편으로 하이퍼스케일러와의 장기 계약을 통해 높은 매출 가시성과 일정 수준의 볼륨을 확보하게 해 주지만 다른 한편으로는 특정 고객 의존도가 커지고, 단가 인하 압박과 마진 하향 리스크에 노출되는 구조이기도 하다.
카운터포인트 리서치는 커스텀 ASIC 시장이 구글과 아마존웹서비스(AWS) 중심의 과점 구조에서 메타와 마이크로소프트까지 가세한 다자 구도로 바뀌면서 브로드컴의 기회가 확대되는 동시에, 구글–미디어텍 연합 등 새로운 설계 파트너의 도전도 거세지고 있다고 분석한다.
마벨 테크놀로지(MRVL)는 브로드컴보다 규모는 작지만 소위 멀티다이 AI 가속기와 CXL 기반 메모리 풀링, 실리콘 포토닉스 등 차세대 데이터센터 아키텍처에서 전략적으로 입지를 넓혀가고 있다.

2025년 발표된 자료에 따르면 마벨은 네 개의 최상위 하이퍼스케일러 모두와 협력해 커스텀 XPU와 CPU, NIC, CXL 컨트롤러 등 가속 인프라 전반을 설계하고 있다. 이는 향후 메모리 풀링과 랙 스케일 컴퓨트로의 전환에서 구조적인 성장 동력이 될 가능성을 시사한다.
마벨은 코패키지드 옵틱스(CPO)를 통합한 커스텀 XPU 아키텍처를 선보이면서 단일 랙이 아니라 복수의 랙에 걸쳐 수백 개의 XPU를 상호 연결하는 멀티랙 스케일 서버 구성을 가능하게 한다고 설명한다.
이 같은 접근법은 칩이 아니라 인터커넥트와 패키징 단계에서 병목을 해소해 AI 클러스터의 효율을 높이려는 시도로, 하이퍼스케일러 입장에서는 특정 GPU 벤더에 묶이지 않고 자신들의 워크로드에 맞는 맞춤형 XPU를 설계할 수 있는 옵션을 제공한다.
아울러 마벨은 CXL 가속기와 메모리 풀링 플랫폼을 통해 기존 CXL 메모리 풀링 디바이스 대비 5배 이상의 벡터 검색 성능을 개선했다고 강조, AI 시대에 메모리 계층 구조를 재설계하는 데 필요한 핵심 IP를 확보하고 있다는 점을 부각한다.
브로드컴은 하이퍼스케일러의 메인스트림 커스텀 트레이닝 및 추론 칩 설계에 가장 깊이 들어간 플레이어이고, 마벨은 패키징과 CXL, 네트워킹까지 아우르는 시스템 레벨 파트너로 다음 세대 인프라 전환에 레버리지를 거는 이름에 가깝다.
투자자의 입장에서는 브로드컴이 커스텀 AI 칩에 대한 보다 순수한 레버리지를 제공하지만 고객 집중도와 가격 압박이라는 리스크를 안고 있고, 마벨은 시장 점유율 측면에서는 작지만 AI 인프라 아키텍처 변화라는 보다 넓은 테마에 올라타 있다는 점에서 서로 다른 성격의 커스텀 칩 플레이어로 평가 받는다.
카운터포인트 리서치를 포함한 조사기관들은 상위 하이퍼스케일러가 사용하는 AI 서버용 커스텀 ASIC 웨이퍼의 거의 전량이 대만 TSMC(TSMC)에서 생산된다는 사실을 강조한다. 구글 TPU, AWS Trainium, 메타 MTIA, 마이크로소프트 Maia와 같은 커스텀 칩뿐 아니라 엔비디아와 AMD의 최신 GPU도 TSMC의 4nm, 3nm 공정에서 제조되고 있는 만큼, TSMC는 범용 GPU vs 커스텀 ASIC 논쟁과 무관하게 AI 가속기 수요가 늘어나는 한 구조적으로 수혜를 볼 수밖에 없는 위치에 서 있다.
특히 병목은 어드밴스드 패키징이다. 트렌드포스를 포함한 리서치에 따르면 AI와 HPC 붐으로 인해 이종 집적 수요가 급증하면서 CoWoS와 SoIC, 패널 레벨 패키징 같은 기술이 전략적 우선순위로 떠올랐다.
다만, AI ASIC의 패키지 사이즈가 점차 커지고 복잡해지면서 일부 클라우드 사업자들은 인텔의 대체 패키징 기술로 일부 수요를 분산하는 방안을 검토하고 있다는 지적도 나온다.
알파벳(GOOGL)과 아마존(AMZN)은 AI 칩을 직접 판매해 매출을 올리기보다 자체 설계 칩을 통해 클라우드 서비스의 마진 구조와 차별화 포인트를 개선하는 전략을 택하고 있다. 오픈AI와 메타, 마이크로소프트까지 합류한 새로운 추세는 장기적으로는 하이퍼스케일러들이 엔비디아 의존도를 줄이고 성능 대비 비용을 최적화하기 위해 특정 워크로드용 커스텀 칩을 늘려가는 방향으로 이어질 가능성이 크다는 점에서 의미가 크다.
CNBC는 구글이 광범위한 AI 모델 훈련과 추론에 TPUs를 확대 도입하고 있지만 여전히 엔비디아 GPU를 대규모로 사용하고 있다는 점을 지적하면서 커스텀 칩의 확대가 곧바로 GPU의 퇴출을 의미하지는 않는다고 전한다.
이는 TPU가 구글 내부 워크로드에 최적화되어 있다는 강점과 동시에 외부 개발자 생태계와 범용성을 가진 GPU를 완전히 대체하지 못하는 한계를 동시에 보여준다. AWS 역시 Trainium과 Inferentia를 통해 특정 AI 워크로드에서 비용 효율성을 높이고 있지만, 여전히 엔비디아 GPU 인스턴스는 최상위 모델 훈련과 광범위한 타사 소프트웨어 지원을 위해 필수적인 옵션으로 남아 있다.
커스텀 칩 채택을 통해 클라우드 마진이 개선되고, 동일한 인프라 캐팩스에서 처리할 수 있는 워크로드가 늘어나며, 장기적으로는 특정 AI 서비스에서 경쟁사 대비 단가 우위를 확보하는 스토리다.
shhwang@newspim.com













