주식과 부채의 혼합 구조, 의도는
CDS 프리미엄 2009년 이후 최고
[서울=뉴스핌] 황숙혜 기자 = 오라클(ORCL)의 인공지능(AI) 인프라 베팅은 초대형 투자라는 사실 이외에 자금 조달 방식의 독특한 구조로 인해 월가의 시선을 끈다.
오라클은 2026년 한 해에만 450억~500억달러의 자금을 외부에서 조달하겠다는 계획을 공식 발표했고, 자금의 대부분이 AI 학습과 추론용 데이터센터와 GPU(그래픽처리장치), 네트워크 등 클라우드 인프라 증설에 투입될 예정이다.
AI 도구를 이용해 관련 자료와 외신 보도를 분석한 결과 업체는 기존 빅테크와는 다른 방식의 자금 조달과 계약 구조를 설계하는 것으로 파악됐다.
오라클이 제시한 450억~500억달러 조달 계획의 큰 틀은 부채와 주식의 혼합 구조다. 업체는 2026년 한 해 동안 총 450억~500억달러 수준의 현금성 자금을 마련하기로 했고, 이 가운데 절반 가량은 주식과 주식연계증권을 통해, 그리고 나머지 절반은 투자등급 무담보 채권을 포함한 부채 발행으로 조달한다는 계획이다.
블룸버그와 로이터 보도에 따르면 오라클은 연초에 대규모 투자등급 회사채 발행을 우선 추진한 뒤 시장 상황을 보며 보통주와 전환사채·교환사채 등 희석형 상품을 섞는 방안을 검토 중이다. 일부 자금은 기존 은행 대출과 리볼빙 크레딧 라인의 확장을 통해 마련한다는 입장이다.
이 같은 구조는 현금 조달 속도를 극대화하는 동시에 부채 의존도를 다소 억제하고, 신용등급 추락을 막기 위한 절충으로 해석된다.

오라클이 이처럼 공격적인 외부 조달에 나서는 배경에는 AI 고객사와 체결한 대형 장기 계약이 배경으로 자리잡고 있다. 월스트리트저널(WSJ)과 여러 리서치에 따르면 오라클은 오픈AI와 약 5년에 걸쳐 3000억달러 규모의 컴퓨팅 리소스를 공급하는 계약을 맺었고, 이 밖에 메타 플랫폼스(META)와 엔비디아(NVDA), 틱톡(TikTok,) xAI, AMD(AMD) 등과도 장기 클라우드·AI 인프라 계약을 확보한 상태다.
인튜이션랩스의 분석에 따르면, 오라클은 텍사스 샤켈퍼드 카운티에 대형 데이터센터 단지를 조성하면서 엔비디아의 차세대 GB200 GPU 약 40만개를 도입하는 계획을 세우고 있다. 해당 GPU만 따로 계산해도 약 400억달러에 가까운 칩 구매 비용이 소요될 전망이다.
이처럼 GPU와 네트워크, 스토리지, 데이터센터 건설과 전력 인프라를 모두 포함하면 단일 리전·캠퍼스당 수십억~수백억달러의 투자가 필요한 상황이기 때문에 450억~500억달러 규모의 외부 조달 계획은 오라클 입장에서는 오히려 '첫 단계'인 셈이라는 평가도 나온다.
문제는 이런 자금 조달이 오라클의 재무 레버리지와 신용도에 미치는 영향이다. 스탠더드 앤드 푸어스(S&P)와 무디스, 피치 등 주요 신용평가사는 2025년부터 오라클의 AI 인프라 확대 전략을 주시하며, 등급을 투자등급(BBB/Baa2)을 유지하면서 전망을 모두 '부정적(negative)'으로 조정했다.
무디스는 2025년 기준 오라클의 조정 부채/EBITDA 비율이 이미 4배를 웃돌고 있으며, 과거 12개월 기준 잉여현금흐름(FCF)이 약 마이너스(–) 51억달러 수준으로 역전된 점을 지적했다. S&P 역시 2026 회계연도 설비투자 가이던스가 기존 250억달러에서 350억달러로 상향됐고, 실제 지출은 380억달러에 달할 수 있으며 2028년에는 연간 600억달러를 넘길 수 있다고 전망했다.
이처럼 과감한 투자와 함께 잉여현금흐름(FCF) 적자가 확대될 경우 S&P 조정 레버리지는 2027~2028년 4배를 넘어설 수 있어 추가적인 부채 확대가 이어질 경우 투자등급 하단을 위협할 수 있다는 경고도 나온다.
오라클의 AI 인프라 계약 구조는 경쟁 빅테크와 비교해 독특한 위험 분산 메커니즘을 갖고 있다는 점도 주목할 만하다. AI 도구를 활용해 여러 보도와 분석을 종합하면 오라클은 일부 대형 AI 고객과의 계약에서 고객이 GPU와 ASIC 등 칩과 일부 하드웨어 투자를 직접 부담하고, 업체는 데이터센터 부지와 건축, 전력 및 냉각 인프라, 광네트워크와 운영 소프트웨어를 제공하는 방식의 구조를 취했다.
이에 따라 칩 가격 급등과 공급 부족에 따른 재고와 가격 리스크 일부를 고객이 떠안게 되며, 오라클은 데이터센터와 전력, 네트워크, 관리 소프트웨어에서 일정 비율의 사용료와 임대료를 받는 형태가 된다. 텍사스 데이터센터 사례에서 보듯 오라클은 오픈AI와 크루소, 엔비디아 등과 함께 데이터센터와 칩 공급망을 공동 설계하는 방식을 선택, 단일 사업자가 모든 자본 지출을 책임지는 구조를 피했다.
오라클이 투자자들에게 강조하는 논리 가운데 하나는 만약 특정 대형 고객 프로젝트가 지연되거나 축소되더라도 새로 지은 인프라를 다른 수요처에 돌릴 수 있다는 것이다. 회사 측은 컨퍼런스콜과 발표 자료에서 자신들이 확보한 AI 및 클라우드 수요가 소수 고객에만 의존하는 것이 아니라 메타와 틱톡(TikTok), 엔비디아, AMD 등 다수 고객으로 구성돼 있으며, GPU·네트워크·스토리지 인프라는 다른 워크로드로도 쉽게 재배치 가능한 범용 자산이라는 점을 강조한다.

실제로 오라클 클라우드 인프라(OCI)는 전용 리전, 고객 데이터센터 내 'OCI 전용 리전' 같은 옵션을 제공해 온프레미스 환경에서도 동일한 인프라를 쓸 수 있게 하는데 이러한 구조는 특정 하이퍼스케일러 전용 설계보다 수요 재배치 유연성이 크다는 주장이다.
하지만 이러한 회사 측 논리를 그대로 받아들이려면 몇 가지 현실적 제약을 감안해야 한다. 첫째, 현재의 AI 인프라 투자는 GPU 세대와 네트워크·스토리지 아키텍처에 강하게 종속돼 있다. 특정 고객에 맞춰 최적화된 인터커넥트나 특수 네트워크 토폴로지는 다른 고객 워크로드로 옮길 때 효율이 떨어질 우려가 있다.
둘째, 오라클의 AI 매출은 상당 부분 소수 초대형 고객에 집중되어 있으며, 모건스탠리와 일부 싱크탱크는 대형 계약이 예상보다 낮은 속도로 실사용 매출로 전환될 경우 레버리지와 잉여현금흐름(FCF)에 상당한 압력이 생길 수 있다고 경고한다.
셋째, GPU 수급이 앞으로 몇 년간 개선된다면 AI 인프라의 공급 과잉과 단가 하락이 발생할 수 있고, 이 경우 기존에 높은 비용으로 지은 인프라의 수익성은 추가 압박을 받을 수 있다. 즉, 인프라를 다른 수요로 돌릴 수 있다는 주장은 기술적으로는 타당성이 있지만 실제 수요의 폭과 가격, 경쟁 상황에 따라 그 효과가 크게 달라질 수 있다는 점에서 투자자는 보수적으로 해석할 필요가 있다.
오라클의 조달 구조와 리스크 관리 방식을 동종 하이퍼스케일러와 비교하면 상당히 공격적인 편에 속한다는 평가가 우세하다. 마이크로소프트(MSFT)와 구글, 아마존(AMZN)은 이미 막대한 현금 보유와 견조한 잉여현금흐름(FCF)을 바탕으로 설비투자를 대부분 내부 현금과 비교적 적은 레버리지로 감당하고 있다.
모건스탠리 분석에 따르면 오라클의 순부채/EBITDA 비율은 약 4배 수준으로, 빅테크 중 가장 높은 수준이다. 마이크로소프트의 수치가 1배 미만이고, 알파벳(GOOGL)은 사실상 순현금 상태다. 아마존도 1~2배 사이에서 관리되고 있다.
신용시장에서는 이미 이를 리스크 프리미엄에 반영했다. 업계에 따르면 오라클 5년짜리 CDS(신용부도스왑) 프리미엄은 2025년 말 기준 2009년 이후 최고 수준인 연 1.28%포인트까지 뛰었다. 이는 투자자들이 오라클의 부채 누적과 잉여현금흐름(FCF) 악화를 빅테크 가운데 가장 민감한 리스크로 보고 있다는 의미로 해석된다.
반면 오라클의 지지자들은 바로 이 지점이 기회라고 주장한다. 미국 온라인 투자 매체 식킹알파와 일부 애널리스트는 오라클이 부채와 자본 확충을 통해 AI 인프라 투자를 선제적으로 앞당김으로써 향후 AI 수요가 실제로 폭발할 경우 경쟁사 대비 훨씬 높은 수익 레버리지를 누릴 수 있다고 본다.
이들은 오라클의 AI 데이터센터 투자가 아직 사용되지 않은 '옵션 가치'를 지닌 자산이며, 수천억달러 규모의 장기 계약이 점진적으로 매출과 현금흐름으로 전환될 경우 레버리지가 빠르게 완화될 수 있다고 주장한다.
관건은 오라클이 약속된 거액의 AI 클라우드 수요를 실제 사용량과 매출, 현금흐름으로 빠르고 안정적으로 전환할 수 있을 것인가의 문제다. 이 질문에 대한 시장의 답이 향후 몇 년간 오라클의 신용등급과 주가, 그리고 AI 인프라 투자 경쟁에서의 입지를 결정하게 될 전망이다.
shhwang@newspim.com













