ADVERTISEMENT

"우리 생성 AI는 비즈니스에 바로 쓴다" AWS 대공세 시작됐다 [팩플]

중앙일보

입력

업데이트

아담 셀립스키 AWS CEO가 28일(현지시간) 미국 네바다주 라스베이거스 베네시안 호텔에서 열린 리인벤트에 참석해 기조연설을 하고 있다. 사진 AWS 공동취재단

아담 셀립스키 AWS CEO가 28일(현지시간) 미국 네바다주 라스베이거스 베네시안 호텔에서 열린 리인벤트에 참석해 기조연설을 하고 있다. 사진 AWS 공동취재단

“그동안 나온 대중적인 생성 인공지능(AI) 챗봇은 흥미롭긴 하다. 하지만 그걸 실제 업무에 쓸 수는 없다. 기업 고객들이 실제 하는 일에 대해 잘 알고 만든 게 아니기 때문이다. 아마존이 만든 생성AI 어시스턴트 ‘큐(Q)’는 그와는 완전히 다른, 새로운 서비스다.”

아담 셀립스키 아마존웹서비스(AWS) 최고경영자(CEO)는 28일(현지시간) 미국 네바다주 라스베이거스에서 열린 연례 컨퍼런스 리인벤트(re:Invent)의 기조연설에서 위와 같이 말했다. 셀립스키 CEO가 큐를 비롯해 새로운 AI 칩, 클라우드 기능 업데이트 등을 발표할 때 마다 객석에선 환호가 터져나왔다. 올해 리인벤트에는 AWS 고객 및 관람객 5만여 명이 참가해 생성 AI 관련 최신 기술에 귀를 기울였다.

27일(현지시간) 부터 미국 네바다주 라스베이거스에서 열린 'AWS 리인벤트 2023' 현장. 권유진 기자

27일(현지시간) 부터 미국 네바다주 라스베이거스에서 열린 'AWS 리인벤트 2023' 현장. 권유진 기자

새로운 발표는

① 진화하는 자체 AI 칩
AWS는 이날 AI 모델 훈련에 쓰이는 칩 ‘트라이니엄2’를 공개했다. 최신 AI 추론용 칩인 인퍼런시아2는 이날 공개되지는 않았으나 한국의 AWS 고객사들이 일부 테스트 중이다. AWS도 AI 학습과 추론에 필요한 칩을 각각 개발하며 엔비디아의 그래픽처리장치(GPU) 의존도를 낮추려는 중이다.

트라이니엄2는 전작보다 학습 속도가 4배 이상 빨라졌다. 최대 10만 개의 칩으로 구성된 AWS 클라우드 서버(EC2 울트라클러스터)에 트라이니엄2을 탑재한 후, 거대언어모델(LLM)을 학습시키면 에너지 효율을 최대 2배까지 높일 수 있다. 구글·아마존 모두 투자한 LLM 스타트업 앤스로픽의 다리오 아모데이 CEO는 이날 기조연설자로 참석해 “트라이니엄2를 기반으로 새로운 AI 모델을 훈련하고 있다”고 밝혔다.

AWS는 자체 칩 개발과 동시에 엔비디아와의 협력도 강화한다. 이날 셀립스키 CEO의 기조연설 무대에는 젠슨 황 엔비디아 CEO가 예고 없이 등장해 화제가 됐다. 황 CEO는 “클라우드 업체 중 최초로 AWS에 엔비디아의 최신 GPU인 H200을 제공할 예정”이라며 “H200은 (전작인 H100에 비해) 추론 데이터를 4배 가량 더 많이 처리할 수 있다”고 말했다.

② 아마존 큐(Q), MS 코파일럿 대항마 될까
이날 아마존은 생성 AI 챗봇 ‘큐’를 깜짝 공개하며 화제몰이를 했다. 클라우드 경쟁사인 마이크로소프트(MS)나 구글이 연초부터 경쟁적으로 신규 AI 서비스를 발표한 데 비해, AWS는 잠잠했던 터라 업계에선 AWS의 일격을 주시하고 있었다.

큐는 MS의 코파일럿, 오픈AI의 챗GPT엔터프라이즈 처럼 비즈니스에 특화됐다. 소프트웨어 개발자가 큐에 “AWS에서 웹 앱을 구축하는 방법으론 뭐가 있나요?” 등의 질문을 하면, 인용문과 출처 링크가 포함된 답을 주는 식이다. 큐는 AWS가 개발한 타이탄을 비롯해 메타의 라마2, 앤트로픽의 클로드2 등 여러 LLM 모델을 모두 지원하는 AWS 플랫폼 ‘베드록’을 기반으로 서비스된다. 셀립스키 CEO는 “17년 동안 쌓아온 AWS 지식을 총동원해 큐를 교육했다”며 “큐는 단 한번의 프롬프트(명령어)만으로 한 시간 분량의 작업을 해낼 수 있다”고 말했다.

AWS는 큐에 기업 고객들이 입력한 내용이 모델 학습에 활용되지 않는다는 점도 강조했다. 금융·의료 등 민감한 데이터를 다루는 기업들의 데이터 유출 우려를 해소하기 위함이다. 셀립스키 CEO는 “처음부터 기업 고객의 엄격한 요구 사항을 충족할 수 있게 설계했다”며 “우리가 원하는 건 고객사의 데이터가 아니다”라고 말했다.

AWS의 빅픽처

클라우드 시장서 MS와 구글의 추격을 받고 있는 AWS는 생성 AI로 글로벌 클라우드 시장 1위(점유율 32%, 시너지리서치그룹)를 더 확고히 하고자 한다. 이날 발표한 서비스들을 ‘생성 AI 스택’으로 정리했다. 최하단에 AI 칩이나 클라우드 서버 같은 인프라를 놓고, 그 위에 LLM 등 파운데이션 모델을 올린 베드록 같은 플랫폼, 그 위 최상단엔 챗봇 큐 같은 AI 앱을 두고 종합 패키지형 생성 AI 서비스를 제공하겠다는 것. 인터넷·모바일 시대에 클라우드 인프라로 입지를 넓혔듯, AI 시대에도 IT 인프라 기업으로서 시장의 판을 쥐겠다는 전략이다.

AWS가 구상한 AI 스택. 사진 AWS 공동취재단

AWS가 구상한 AI 스택. 사진 AWS 공동취재단

셀립스키 CEO는 AI 생태계 주도권 경쟁을 본격화한 오픈AI를 견제하기도 했다. 그는 “누가 최고의 기술을 가지고 있는지, 어디가 신뢰할 수 있는 업체인지 알기 위해 (소비자들에겐) 여러 공급자에 대한 선택권이 필요하다”며 “지난 열흘 간의 사건이 이를 명확하게 보여준다고 생각한다”고 말했다. 샘 올트먼 CEO의 축출과 복귀 소동을 벌인 오픈AI에 비해 AWS의 안정성을 강조한 것으로 보인다.