* 'AI MY 뉴스'가 제공하는 AI 어시스턴트가 답한 내용으로, 퍼플렉시티 AI 모델이 적용됐습니다. 상단의 'AI MY 뉴스' 로그인을 통해 뉴스핌의 차세대 AI 콘텐츠 서비스를 활용해보기 바랍니다.
질문 : 마이크로소프트를 필두로 오픈AI를 키운 빅테크가 손을 놓는 배경이 뭘까.
[서울=뉴스핌] 황숙혜 기자 = 챗GPT 열풍을 키운 빅테크들이 이제는 역설적으로 오픈AI 이후를 준비하고 나섰다.
특정 파트너의 모델에 과도하게 의존하지 않고 자체 모델과 연산 인프라, 배포망을 동시에 확보하는 전략적 자립을 추진하는 움직임이다.
변화가 가장 선명하게 드러난 곳은 마이크로소프트(MSFT)다. 블룸버그에 따르면 업체는 2027년까지 텍스트와 이미지, 오디오 전반에서 최첨단 수준의 자체 AI 모델을 구축한다는 목표를 공개적으로 제시했고, 무스타파 술레이만은 "절대적인 프런티어를 구현해야 한다"고 말했다.
블룸버그 보도에 따르면 마이크로소프트는 지난해 10월부터 엔비디아(NVDA) GB200 칩 클러스터를 활용하기 시작했고, 향후 12개월에서 18개월 동안 프런티어급 연산 능력으로 확대하겠다는 계획도 밝혔다.
더 이상 오픈AI 모델의 유통 파트너로만 머무르지 않고, 장기적으로는 자체 모델 주권까지 확보하겠다는 선언으로 풀이된다.
이른바 탈(脫) 오픈AI가 가능해진 배경은 분명하다. 마이크로소프트는 과거 오픈AI와의 계약상 범용 자체 모델 개발에 제약을 받았지만 지난해 재협상된 계약에서 그 조항이 사라졌다.
한때는 오픈AI와의 밀착이 가장 큰 경쟁력이었지만 시장이 커질수록 특정 모델 공급자의 기술 로드맵과 가격 정책, 제품 출시 속도에 지나치게 묶이는 구조는 빅테크 입장에서 점점 더 불편해질 수밖에 없다.

이 같은 흐름은 마이크로소프트만의 문제에 국한되지 않는다. 구글은 애초부터 외부 스타트업의 모델을 들여와 자사 핵심 서비스를 굴리는 회사가 아니다. 검색과 클라우드, 생산성 소프트웨어 위에 얹을 자체 모델 경쟁력을 지키는 데 크게 무게를 실은 것.
메타 플랫폼스(META)는 폐쇄형 모델을 사오는 것보다 자사 생태계 안에서 개방형 AI의 영향력을 키우는 쪽에 더 중점을 두고 있고, 아마존(AMZN)은 하나의 '최강 모델'에 베팅하기보다 클라우드 위에서 여러 모델을 유통하고 기업 고객의 선택권을 쥐는 구조를 선호한다.
애플(AAPL) 역시 같은 문법으로 움직인다. 업체가 원하는 것은 다른 업체의 AI를 그대로 붙이는 것이 아니라 기기와 운영체제, 사용자 경험 안에서 통제 가능한 형태의 AI를 구현하는 것이다.
이렇게 보면 빅테크의 AI 경쟁은 더 이상 누가 가장 똑똑한 모델을 먼저 내놓는가의 단순 승부가 아니다. 오히려 누가 더 싼 비용으로 추론을 돌리고, 더 많은 연산 자원을 확보하며, 더 넓은 사용자 접점에 AI를 배포하고, 그 과정에서 데이터를 다시 자사 생태계로 흡수하는지가 핵심이다.
마이크로소프트가 최근 공개한 음성 전사 모델도 이 점을 잘 보여준다. 업체는 이 모델이 널리 쓰이는 25개 언어 가운데 11개 언어의 벤치마크에서 경쟁 제품보다 높은 정확도를 보였다고 설명했지만 동시에 이 모델은 GPT-4 같은 범용 초거대 모델이 아니라 효율성을 중시한 특화형 도구에 가깝다.
영국 파이낸셜타임스(FT)도 마이크로소프트가 연산 자원 제약 속에서 이른바 '중간급' 모델을 내놓고 있다고 해석했다.
빅테크는 이제 처음부터 모든 영역에서 오픈AI를 정면으로 복제하려는 것이 아니라, 자신이 강한 층위부터 AI를 내재화하고 있다. 누군가는 검색과 광고에서, 누군가는 소셜과 오픈소스에서, 누군가는 클라우드 마켓플레이스에서, 또 누군가는 디바이스와 운영체제에서 AI 주권을 되찾으려는 움직임이다.
다시 말해 '탈 오픈AI'는 AI 시대의 가치사슬을 다시 수직 계열화하려는 거대 플랫폼 기업들의 본능을 보여주는 대목으로 풀이된다.
자금 흐름에도 변화가 예상된다. 생성형 AI 1라운드의 경우 오픈AI와 엔비디아라는 상징적 승자에게 자금이 몰린 반면 2라운드는 누가 모델과 칩, 클라우드, 소프트웨어, 유통망을 함께 묶어 장기 수익 구조로 전환할 수 있는가를 가리는 싸움이 될 가능성이 크다는 분석이다.
higrace5@newspim.com













