ADVERTISEMENT

눈까지 달았다, 더 똑똑해진 AI 등장

중앙일보

입력

지면보기

경제 01면

초거대 AI 기술 경쟁이 더욱 뜨거워지고 있다.

챗GPT보다 더 똑똑한 인공지능(AI)이 나올 것이란 기대 속에 GPT-4가 공개됐다. 지난 3개월간 전 세계에 AI 열풍을 일으킨 오픈AI의 후속작이다. GPT-4는 똑똑할 뿐 아니라, 사진이나 영상 등 이미지를 인식할 수 있는 ‘눈’까지 탑재했다.

오픈AI는 14일(현지시간) 4세대 초거대 AI인 GPT-4를 출시했다. 챗GPT의 기반이 된 GPT-3.5의 업그레이드 버전이다. 오픈AI 투자자인 마이크로소프트(MS)는 같은 날 즉시 “검색엔진 빙에 GPT-4를 탑재했다”고 발표했다. 오픈AI는 초거대 AI 훈련에 사용된 매개변수(파라미터) 규모는 공개하지 않았다. 보통은 매개변수가 많을수록 AI의 역량이 뛰어난데, GPT-3의 파라미터 수는 1750억개였다.

그래픽=박경민 기자 minn@joongang.co.kr

그래픽=박경민 기자 minn@joongang.co.kr

오픈AI는 언어학습 앱인 듀오링고, 핀테크 앱인 스트라이프 등 유명 모바일 앱에도 GPT-4가 탑재됐다고 공개하며 ‘GPT 생태계’를 과시했다. 오픈AI가 지난달 출시한 유료 AI ‘챗GPT 플러스’(월 이용료 20달러)에도 GPT-4를 즉시 적용했다고 밝혔다.

이에 따라 빅테크의 AI 경쟁 속도가 눈에 띄게 빨라지고 있다. 구글은 초거대 AI인 람다 기반의 대화형 생성AI ‘바드’의 출시를 예고했고, 페이스북 운영사인 메타도 초거대 AI 라마를 연구자에게 오픈소스로 공개했다. 이날 오픈AI가 GPT-4를 공개하기 직전 구글도 생성 AI 관련 신규 기능을 대거 공개했다. 구글은 클라우드 기반 업무 도구 플랫폼인 구글 워크스페이스의 일부 시범 사용자에게 생성AI를 활용한 새로운 글쓰기 지원 기능을 제공한다고 밝혔다. 원하는 주제를 입력하면 초안을 제공하는 식이다.

이전 AI 모델과 GPT-4의 가장 큰 차이는 텍스트뿐만 아니라 이미지까지 이해할 수 있는 멀티모달 모델이라는 점이다. 오픈AI는 파트너사인 ‘비마이아이즈’가 개발 중인 GPT-4 기반 버추얼 자원봉사자를 소개했다. 시각장애인에게 현재 눈앞의 풍경이나 사물의 형체를 음성으로 안내하는 AI 서비스다.

언어 능력도 향상됐다. 영어 능력은 MMLU(AI 언어 모델의 언어 능력을 보여주는 벤치마크) 기준 70.1%(GPT-3.5)에서 85.5%로 향상됐다. 어색했던 한국어도 나아졌다. GPT-4의 한국어 능력은 MMLU 기준 77.0%로 GPT-3.5의 영어 능력(70.1%)보다 좋아졌다. 모의 변호사 시험을 상위 12%의 점수로 통과하고, 미국 대학입학시험인 SAT에서는 상위 10%의 성적을 냈다.

기억력도 개선됐다. GPT-3.5가 한 번에 최대 약 3000단어(영어 기준)까지 처리하는 데 비해 GPT-4는 약 2만5000단어까지 처리할 수 있다. 쉽게 말해 GPT-3.5가 사용자와 대화할 때 책의 4~5페이지 분량을 기억한다면 GPT-4는 50페이지 분량을 기억한다.

다만 없는 정보를 있는 것처럼 말하는 ‘할루시네이션(환각)’ 문제를 GPT-4에서도 완전히 해결하지는 못했다. 아직도 2021년 9월 이전 정보만 학습돼 있어 최신 정보는 모른다.

오픈AI는 연구개발 논문을 공개했던 GPT-3과 달리 GPT-4는 소개서 성격의 기술 리포트만 냈다. 모델을 훈련시키기 위해 사용한 데이터셋, 아키텍처도 공개하지 않았다. AI 연구자 사이에서는 ‘구글처럼 AI 기술을 독점하지 않겠다’라는 명분으로 설립된 오픈AI가 MS의 거액 투자 이후 점점 폐쇄적으로 변해간다는 평가가 나오기도 한다. 하정우 네이버클라우드AI랩 소장은 “지금까지 오픈AI가 많은 것을 공개하면서 함께 성장한다는 방향으로 해왔는데, 이제 오픈AI-MS 진영은 ‘문을 닫겠다’는 선언을 한 것으로 볼 수도 있다”고 설명했다.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT