ADVERTISEMENT

340조 'AI데이터 댐' 짓기 전쟁…아마존 이어 MS도 칼뺐다

중앙일보

입력

지면보기

경제 01면

오픈AI의 영상 AI인 소라는 자연어 명령어를 입력하면 해당 내용의 동영상을 생성한다. AFP=연합뉴스

오픈AI의 영상 AI인 소라는 자연어 명령어를 입력하면 해당 내용의 동영상을 생성한다. AFP=연합뉴스

340조원. 마이크로소프트와 아마존, 단 두 회사가 인공지능(AI) 데이터센터에 쏟아붓는 돈이다. AI 기술이 영상 생성과 인간 음성 복제까지 빠르게 발전하면서 이를 구동하기 위한 AI 인프라 확보 경쟁이 세계 반도체 시장 판도까지 흔들고 있다.

‘AI 스타트업 + 빅테크’, 그 다음은 칩

마이크로소프트(MS)와 오픈AI가 6년간 1000억 달러(약 135조원)를 들여 현존 100배 이상 규모의 AI 데이터센터를 구축하는 프로젝트에 착수했다고, 디인포메이션이 지난달 29일(현지시간) 보도했다. MS는 챗GPT 개발사인 오픈AI의 최대 투자자로 이번 프로젝트의 핵심은 오픈AI의 AI를 구동할 수 있게끔 수백만 개 서버 칩이 들어간 슈퍼컴퓨터를 구축하는 것이다.

미국 버지니아 주 애쉬번의 아마존 데이터센터 전경. EPA=연합뉴스

미국 버지니아 주 애쉬번의 아마존 데이터센터 전경. EPA=연합뉴스

세계 1위 클라우드 서비스 업체인 아마존도 AI 데이터센터에 향후 15년간 1500억 달러(약 203조원)를 투자할 계획이다. 앞서 이 회사는 지난달 27일 AI 기업 앤스로픽에 누적 40억 달러(약 5조4000억원) 투자를 발표했다. AI 모델·서비스를 개발하는 스타트업에 빅테크가 밀착해 자금과 컴퓨팅(연산) 인프라를 제공하고, AI 기술의 발달 속도에 맞춰 AI 전용 데이터센터를 확충하는 공식이 굳어진 셈이다.

화룡점정은 ‘AI 칩’이다. MS·아마존이 각각 자체 개발한 AI 칩 마이야와 트레이니움이 양사 데이터센터에 대량 들어갈 예정이다.

왜 AI 인프라 서두르나

윤리·저작권 등 AI 기술을 둘러싼 논란이 있지만, 인간을 닮은 AI 기술의 진도는 빨라지고 있다. 결국 관건은 이를 구동할 인프라다.
샘 올트먼 오픈AI CEO가 최근 파라마운트, 워너브라더스, 유니버설스튜디오 등 주요 할리우드 제작사 경영진을 만나 자사 영상 생성 AI 소라(Sora)를 소개했다고 파이낸셜타임즈가 보도했다. 소라는 자연어를 입력하면 영상을 만들어주는 AI다. 게다가 오픈AI는 지난달 29일(현지시간) 사람 음성을 15초만 들으면 그대로 복제해 내는 AI ‘보이스 엔진’도 공개했다. 오픈AI는 “AI 안전을 위해 기술을 맛보기로만 공개한다”라고 했지만, 업계에서는 소라와 보이스 엔진이 결합하면 영화 등 콘텐트 산업을 뒤흔들 것으로 본다.

‘소라’용 GPU 29조원, 그래서 AI 반도체 개발

문제는 비용이다. 미국 실리콘밸리 AI 전문 투자사 팩토리얼 펀드는 오픈AI의 소라를 틱톡·유튜브 크리에이터가 사용할 수 있게 서비스하려면 엔비디아 그래픽처리장치(GPU)인 H100이 총 72만 개 필요하다고 추정했는데, 이는 구매 대금만 약 216억 달러(약 29조1000억원)에 달한다. 게다가 엔비디아 GPU는 공급이 수요를 따라가지 못하는 상황이다.

지난 18일 미국 새너제이에서 열린 기술 컨퍼런스 GTC에서 기조 연설하는 젠슨 황 엔비디아 CEO. AFP=연합뉴스

지난 18일 미국 새너제이에서 열린 기술 컨퍼런스 GTC에서 기조 연설하는 젠슨 황 엔비디아 CEO. AFP=연합뉴스

AI용 반도체 시장은 ‘엔비디아(GPU 설계) + SK하이닉스(HBM 메모리) + TSMC(제조)’가 장악했지만, 이처럼 시장이 팽창하다 보니 팹리스(설계)·메모리·파운드리 후발 주자도 기회를 노린다. 젠슨 황 엔비디아 CEO는 이를 견제하듯 지난달 자사 기술 콘퍼런스 GTC에서 칩을 설계하는 AI인 ‘칩 디자이너 봇’을 소개했다. ‘자체 칩 설계가 필요하면 그것도 엔비디아와 하라’는 얘기다. 그러나 반도체 업계에서는 “구글·MS 같은 빅테크는 엔비디아에 대한 구매 협상력 차원에서라도 자사 AI 칩 개발을 계속할 것”이라고 본다.

MS·아마존의 자체 AI 칩은 모두 대만 파운드리 업체 TSMC가 생산한다. 그러나 MS가 인텔 파운드리에 칩 물량을 맡기는 등 TSMC가 다 소화하지 못하는 물량이 삼성전자·인텔 등으로 넘어올 가능성이 있다. 고대역폭메모리(HBM) 같은 AI용 메모리 수요도 폭증하고 있어, HBM 후발주자인 삼성전자·마이크론의 기술·영업 경쟁이 한창이다. 경계현 삼성전자 반도체(DS) 부문장(사장)은 지난달 29일 소셜미디어에 글을 올려“AI에서 고용량 HBM이 경쟁력”, “HBM 리더십이 우리에게로 오고 있다”라며 삼성의 12단 적층 HBM에 대한 자신감을 나타냈다.

AI 칩은 ‘전성비’ 경쟁 중  

새로운 AI 칩이 갖춰야 할 주요 성능은 ‘전성비(전력 대비 성능)’다. AI 데이터센터의 전력 소비량이 천문학적인데 반해, 전력 확보는 점점 더 어려워져서다. 지난달 아마존은 미국 펜실베니아 주의 원자력 발전소 인근 데이터센터 단지를 인수했다. 블룸버그는 “아마존 등이 데이터센터에 대량 투자하지만, 전력 확보가 점점 더 어려워지고 있다”라며, 빅테크가 미국 내 전력을 확보할 수 있는 곳이라면 어디든 달려가는 데이터센터 설립 경쟁을 벌이고 있다고 보도했다. 삼성전자와 네이버가 함께 개발한 ’마하-1’ 등 AI 추론(서비스) 전용 칩들이 ‘저전력’을 강조하고 나선 배경이다.

ADVERTISEMENT
ADVERTISEMENT