ADVERTISEMENT

[팩플] AI도 통역이 되나요? 한국어로?

중앙일보

입력

업데이트

팩플레터 162호, 2021.11.2

Today's Topic
AI도 통역이 되나요?

팩플레터 162호

팩플레터 162호

최근 네이버·카카오 같은 소프트웨어 강자뿐 아니라 LG, SKT, KT 같은 정보통신기술(ICT) 기업 전반이 초대규모 인공지능(Hyper Scale AI) 개발에 뛰어들었습니다. 지난해 미국의 오픈AI 재단이 공개한 AI ‘GPT-3’의 충격 때문이었을까요. 올해 한국 IT 거물들은 어느 때보다 활발하게, 민첩하게 움직였습니다. 특히, 한국 IT기업들이 한국어를 한국인처럼 잘하는 AI 개발에 도전하는 중이라 더 반갑습니다. 영어로 인간의 말을 공부한 AI보다는, 애초에 한국어로 훈련받은 AI가 한국인 사용자의 말을 찰떡같이 더 잘 알아들을 테니까요. 이런 관점에서 전 세계 각국에서도  비(非)영어 기반 AI 개발 경쟁이 뜨겁다고 합니다.

이번 레터는 박민제·유부혁 기자가 취재해서 정리했습니다. 저도 몇몇 AI 연구자를 만나 얘길 들어봤는데요. 올해 AI의 한국어 능력을 평가할 수 있는 ‘공인테스트’(데이터셋)가 나와 꽤 고무적인 분위기였습니다. AI의 자연어 능력을 테스트할 영어로 된 시험 GLUE(General Language Understanding Evaluation)가 2018년에 나온 지 3년 만에, 한국어도 그런 평가 체계를 갖춘 겁니다. AI를 얼마나 잘 활용하느냐에 따라 개인·조직·사회의 생산성이 달라질 거라고 하죠. 한국말 잘하는 AI를 제 뇌의 보조기억장치로 쓸 수 있는 날이 언제쯤 올지 기다려집니다. 우리 한국어 AI들, 얼마나 열공하고 있는지 오늘 레터에서 살펴보세요! 언제나 감사합니다.
From 박수련 팩플 팀장

.

.

🧾 목차

1. 누구냐 넌? 초대규모 AI
2. 말 잘하는 AI, 어디다 써?
3. 프로 한국인 AI 왜 필요해?
4. 한국어 AI, 누가누가 경쟁해?
5. AI 성장 부스터 샷, 클루
6. 자비스는 언제쯤

1. 누구냐 넌? 초대규모 AI

챗봇부터 스피커까지 주변에 대화할 인공지능(AI) 급증. 노래도 틀어주고 길도 알려주고 예약도 받아 준다. 나름 그 동네에서 똑똑하기로 이름 날리던 친구들인데, 문제는 말이 통하진 않는다는 점. 정해진 시나리오를 조금만 벗어나도 “잘 모르겠어요”를 연발한다. 인공지능이라 쓰고 인공 ‘바보’라 읽어도 딱히 반박할 수 없는 수준. 그런데 지난해 오픈AI가 초대규모 AI로 불리는 GPT-3를 선보이며 판이 바뀌었다.

① 뭐가 달라?
초대규모AI, 영화 ‘아이언맨’의 자비스나 ‘Her’의 AI비서와 닮았다. 물론 지금은 그 정도로 유능하진 않지만 말이 통하는가 면에선, 이전 AI들과는 아예 수준이 다르다는 평가.

만물박사 납시오! : ‘첫 팩스가 전송된 연도’ ‘파이널판타지6의 마지막 보스’ 등 뭘 물어도 척척 답한다. 바둑만 둘 줄 알았던 알파고와 차원이 다르다.
대화가 되네? : 전 질문에 이어진 맥락 있는 후속 질문에 대한 답변도 척척. 다음은 네이버 초대규모 AI 하이퍼클로바와의 실제 질문과 답변.

Q. 이성계의 업적은? A. 조선을 건국했어.
Q. 그거 말고 다른 업적은? A. 불교 대신 유교를 채택했어.

주관식도 척척 : 예시와 지시문을 몇 개 주면 그럴싸한 답을 뽑아내는 이른바 ‘퓨 샷 러닝’(few shot learning) 성능도 우수. 지난해 9월 가디언은 ‘로봇이 이 기사를 썼다. 인간, 아직도 무서운가’라는 제목의 500단어짜리 칼럼을 게재. GPT-3가 ‘인간이 AI로부터 겁을 먹을 필요가 없는 이유’에 대해 썼다. 가디언이 제공한 재료는 ‘스티븐 호킹은 AI가 인류 종말을 초래할 수 있다고 경고했다’ 등 7개 문장. 가디언은 “인간이 쓴 칼럼보다 편집하는 데 든 시간이 짧았다”고 평가했다.

② 어떻게 만들었어?
“야 너두, 사람말 좀 배워라”: 초창기 기계와 소통은 하향식이었다. 규칙을 입력하고 한정된 범위에서 얘기했다. 프로그래밍 언어가 대표적이다. 문제는 보통 사람들이 쓰는 자연어로 AI와 소통하려 하면서부터. 예외도 많고 모호한 자연어로 정보를 주고받자니, 기존 하향식으론 대화 불가. 그래서 AI 교육법을 바꿨다. 사람의 자연어 데이터를 AI에 집어넣고는 ‘통계적으로 적절한’ 답을 찾게끔 학습시켰다. 인간의 언어를 모방하게 했더니 실력도 일취월장. 때마침 찾아온 빅데이터 시대, AI의 ‘대화력’은 어학연수 온 유학생 마냥 급상승했다.
“바보야, 문제는 파라미터야”: 인간이든 AI든 학습량은 성적을 담보한다. 문제는 가성비. AI를 훈련할 데이터 많을수록 좋지만, 양질의 데이터는 부족하고 가르치는 데 돈도 많이 든다. 그런데 이 불확실성을 GPT-3가 깼다. 파라미터(변수·AI 모델의 성능과 용량을 가늠하는 단위) 수를 전작 GPT-2(15억개) 대비 100배 이상(1750억개) 늘렸더니, 성능이 놀랄 만큼 좋아졌다. GPT-3가 공부한 단어는 5000억개. ‘바벨의 도서관’(세상 모든 언어로 된 도서 보유)에서 공부시킨 셈. 이전까지는 마이크로소프트(MS)의 튜링-NLG의 파라미터 수가 170억개로 가장 많았었다.
무어의 법칙 넘어선 AI 성장 속도: 새로운 성공방정식이 검증되자 빅테크 기업들 너나 할 거 없이 파라미터 키우기 경쟁에 돌입했다. MS는 파라미터 수를 5300억개로 늘린 초대규모  AI ‘MT-NLG’를 지난 10월 11일 공개, “AI의 발전 속도가 무어의 법칙(반도체 성능이 18개월마다 배로 증가)보다 빠른 시대”라고 설명했다. 구글도 지난 5월 사람처럼 말하는 AI ‘람다(LaMDA)’를 공개했다.

2. 말 잘하는 AI, 어디다 써?

‘미래는 이미 당신 곁에.’ 초대규모 AI는 일상 속 여러 서비스에 적용되며 영역을 확장하는 중.

① 잘 찾고 : 네이버는 지난 10월말 간담회에서 ‘에어서치’를 공개했다. 정답찾기 중심의 검색에 AI를 붙여 개인화된 결과를 보여주겠다는 게 골자. 가령, 에어서치에선 로그인한 사용자가 ‘캠핑’을 검색하면 그의 성별·연령에 따라 캠핑 준비물 리스트, 초보캠핑, 캠핑장비 등 정보가 나온다. 네이버는 에어서치 검색 결과 아래에 하이퍼클로바가 만들어낸 질문을 첨부했다. ‘맹장염 진단’을 검색하면 “맹장염은 어떻게 치료하나요?”라는 질문과 답변을 함께 링크해 보여주는 식. 구글도 사람처럼 대화할 수 있는 ‘AI 람다’를 검색에 도입할 계획이다.

② 잘 만들고 : 조건을 제시해주면 소설·시도 제법 쓴다. 다음은 카카오브레인이 개발 중인 초대규모 AI에게 박경리 작가의 소설 〈토지〉에서 딴 6~7줄 문장을 주자 뒤이어 쓴 내용.

“그렇게 몇번을 되풀이 하자 그제야 사람들은 두 사내를 불러들인다.…(중략)…최서방은 오른 손을 번쩍 치켜들며 말한다. ‘어이 거 주댕이 좀 내밀어 봐. 자네들 혹시 무슨 일 있었나?’…(후략)…”

네이버의 하이퍼클로바는 ‘웹툰 여신강림, 유미의 세포들과 비슷한 느낌의 스토리를 짜달라’, ‘아이유 느낌으로 가사 써줘’ 등의 요구에 그럴싸한 결과를 내놓는다. 요약도 잘한다. GPT-3는 2만6449 단어로 된 이상한 나라의 엘리스를 136단어로 줄였다. 엘리스가 토끼굴에 떨어진 부분과 여왕을 만나서 겪은 모험담을 압축적으로 설명했다.

③ 후학도 양성 : AI 훈련에 필요한 데이터셋을 AI를 이용해 만들 수도 있다. 피자집 점원과 고객의 대화라는 상황을 주고, 비슷한 대화 10개를 만들라고 하면 자연스러운 대화를 생성한다. 이걸 다른 AI에게 입력해 학습시키는 것도 가능. 실제 데이터셋 없이도 AI를 훈련시킬 수 있다는 의미.

④ ‘코알못’도 ‘입코딩’ : 초대규모 AI가 몰고 올 가장 파괴적인 변화는 아마도 이것? 코딩 한줄 못하는 사람도 AI에게 필요한 프로그램을 말로 설명하면 AI가 코딩해주는, 이른바 ‘입코딩’이다. 오픈 AI가 지난 8월 공개한 GPT-3 Codex가 그 예. 파이썬, 자바스크립트 등 12개 이상 프로그래밍 언어를 쓸 줄 아는 AI다. 이걸로 우주게임을 만들고 싶다면 우주선 이미지를 넣고 “이게 우주선이다”, “우주선을 평행으로 움직이게 하고 운석을 피하면 점수를 준다” 등의 지시를 내리면 된다고. ‘입코딩’이  발전하면, AI비서 자비스의 실사판이 가능할지도.

3. 프로 한국인 AI 왜 필요해?

GPT-3, 한국말도 못 하진 않는다. 그런데 지난 5월 네이버가 국내 최초로 한국어 초대규모 AI 하이퍼클로바를 공개한 것을 시작으로 카카오·LG·KT·SKT 등 국내 기업들도 앞다퉈 이 시장에 참여한다고 선언했다. 대체 왜? 차라리, GPT-3에 통역기를 붙이는 게 빠르지 않을까.

① 바벨의 도서관엔 한국어 책, 0.6%
●한국어는 인터넷 정보의 언어분포 기준으로 소수어다. 네이버에 따르면, 인터넷 정보 중 60.3%가 영어 자료이고, 한국어는 0.6%에 불과하다. 여기서 공부한 GPT-3의 학습자료 중 언어 분포는 더 불균형. 영어 92.7%, 한국어 0.1%다. 물론 압도적으로 많은 데이터를 공부한 덕에, GPT-3가 한국말을 할 줄은 알지만 영어만큼 잘하진 못한다. 보통 영어로 된 자연어 데이터셋은 한국어의 1만배 이상으로 알려져 있다.
●강인호 네이버 서치&클로바 CIC 책임리더는 “한국어학당을 다닌 외국인이 한국어로 말할 순 있지만, 한국을 잘 안다고 할 순 없듯, AI도 그렇다”고 비유했다. 한국인에겐 나만큼 한국을 잘 아는 AI가 더 필요하단 의미.

② 영어와는 달라요
●한국어, 데이터도 적은데 언어 특성도 많이 다르다. 각 어절이 합쳐져 의미가 생기는 교착어 계열인데다 문자도 고유체계. 영어는 단어별로 띄어쓰기가 되는데 한국어는 의미 단위별로 잘라야(토크나이징) AI가 인식할 수 있다. 한국어에 특화된 모델이 필요하단 의미.
박은정 업스테이지 최고과학책임자(CSO)는 “한국어의 특성을 이해하고 학습한 AI가 필요하다”며 “같은 계열 언어들은 언어모델 하나로 AI를 훈련시키는 ‘다국어 모델’을 택하기도 하는데, 고유 문자체계가 있는 한국어는 그 모델 이점도 적다”고 말했다.

③ AI 생산성, 그림의 떡 될라
●이전까지 AI는 스페셜리스트였다. 인간들의 대화 데이터를 가져다 AI를 학습시키고, 이를 고객 응대용 챗봇으로 만드는 식이었다. 그런데 초대규모 AI는 ‘범용성’을 장착했다. 어디 둬도 기본 밥값을 한다는 의미. GPT-3가 홈페이지에 열거한 사용례만 ‘대화’, ‘노트 요약’ 등 49개다. ‘플랫폼 기술로서 AI’가 산업 곳곳에 적용된다면,  AI가 끌어올릴 생산성 향상 효과는 상상 초월.
●그런데 이런 AI 언어모델이 없다면? GPT-3같은 남의 AI 모델을 빌려다가 통번역 해서 써야 한다. 한국말 좀 못해도 참고 쓸 수밖에. 게다가 남의 것 빌려 쓰기도 점점 어려워질 전망. GPT-3는 지난해 9월 MS에 ‘독점적’ 라이센스를 제공하는 계약을 체결했다.
백운혁 카카오브레인 라지스케일팀장은 “GPT-3는 ‘기술기업이라면 이 정도 언어 AI 모델은 가져야 한다’는 최소한의 기준선이 됐다”고 말했다.

4. 한국어 AI, 누가누가 경쟁해?

초대규모 AI, 아무나 못 만든다. 클라우드 회사에서 장비를 빌려도 언어모델 한 번 돌리는데 기본 수십억 원이 든다고. 그럼에도 국내에선 네이버를 시작으로 카카오, LG, KT, SKT 등이 경쟁에 뛰어들었다. 네이버 강인호 책임리더는 “구글, 아마존 등과 경쟁해 이 서비스의 글로벌 주도권을 잡아야 한다”며 “지금 하지 않으면, 그들의 속도를 도저히 따라잡을 수 없을 것”이라고 말했다.

① 글로벌 선봉장, 네이버
●뭘 만들었어? :지난 5월 초대규모 AI 하이퍼클로바를 공개했다. 파라미터 2040억개로 뉴스 50년치, 네이버 블로그 9년치를 학습. 이를 위해 네이버는 지난해 10월 700페타플롭(PF·1초당 1000조 회 연산) 이상 성능을 갖춘 수퍼 컴퓨터를 구축했다. 한번 모델 만드는 데 일반 서버 3000대 전력이 들어간다. GPT-3 대비 6500배 많은 한국어 데이터를 배운 ‘프로 한국인 AI’다.
●앞으로는? : 모델이 성장하려면 서비스와 결합은 필수. 네이버의 다양한 서비스에 하이퍼클로바를 녹이고 있다. 검색을 비롯해, 네이버쇼핑에서 구매자들 리뷰를 추출해 한 줄 요약하기, 상품 특징을 고르면 광고문구를 자동으로 생성하는 기능 등은 이미 구현.

② 추격자, K·L·K·S
●연내 AI 공개, 카카오 : AI 연구개발 자회사인 카카오브레인이 ‘대규모 언어 모델(이름 미정)’ 연내 공개를 목표로 개발 중. 사내엔 데모 사이트를 공개했다. 파라미터 크기와 성능 사이 효율적 지점을 찾아내고 이미지나 소리 등 텍스트 외 데이터와 결합한 서비스 등도 준비.
●인재로 난제 해결, LG : 연내 파라미터 6000억개 이상 초대규모 AI 개발이 목표.  ‘계열사 난제 해결'에 쓰기 위해 2023년까지 그룹 내 AI 전문가 1000명 확보에도 나섰다. 구글의 AI 연구조직 ‘구글 브레인’ 출신 이홍락 미시간대 교수도 영입했다.
●‘기가지니’  키워 골목으로, KT : 기가지니를 발전시킨 ‘AI 능동복합대화 기술’로 기존 고객 상담센터를 대체하겠다고 지난달 발표했다. 내년 상반기엔 자영업자들이 ‘AI 통화 비서’를 통해 주문받고 손님을 응대하는 구독형 AI 서비스도 출시할 예정.
●콘텐츠를 위한 AI, SK : 올해말 공개를 앞둔 한국어 범용 언어 모델(GLM)을 개발하기 위해 국립국어원과 손잡고 ‘AI 언어능력평가'를 진행 중이다. 영화나 드라마 속 음성을 자막으로 변환하는 기술도 3년 내 선보일 계획이다.

🏃스타트업, 우리도 있어요

초대규모 AI를 직접 개발은 못해도 관련 기술을 응용해 여러 서비스를 시도하고 있다.

보이저엑스는 영상편집(브루), 글씨체 생성(온글잎), 모바일 스캐너(브이플랫)와 같은 AI기술 기반 서비스를 개발. 크래프톤과 한국어 GPT-3도 개발 중이다.
리턴제로가 개발한 AI 전화 ‘비토(VITO)’는 통화 음성을 텍스트로 변환하는 ‘소머즈 엔진’, 화자를 분석하는 ‘모세 엔진’등을 자체 개발했다. 전화가 오면 상대방과의 직전 통화 내용을 보여주는 ‘통화 전 미리보기’ 서비스도 제공한다.

5. AI 성장 부스터 샷, 클루

한국판 초대규모 AI들 간에도 우열은 있을 터. 어떤 언어모델이 한국말을 더 잘하는지 객관적으로 검증할 수 있을까. 이럴 때 필요한 게 시험이다. 공부 잘한다고 소문난 수재라도 대학 갈 실력이 되는지 보려면 대수능 점수나 SAT·토플 시험을 봐야 하듯. 저마다 다른 책(데이터)으로 한국어를 배운 AI를 평가하려면 별도의 데이터 묶음(data set)이 필요하다. 영어 AI에선 GLUE가, 중국어 AI에선 CLUE라는 데이터셋이 그런 역할을 한다. 한국어 AI를 위한 KLUE도 있을까? 올해 5월에 KLUE가 세상에 나왔다.

성장 촉진제 KLUE: AI를 시험에 들게 하려면, AI에게 뭘 가르쳐야 하는지 인간도 정확히 알아야 한다.  KLUE는 한국어 AI 언어모델이 갖춰야 할 실력을 8개 영역별로 정의하고, 평가해 점수를 낸다. 시험의 목적은 줄세우기에만 있지 않다. 그 점수 올리려고 열공하다 보면 실력도 빠르게 는다.  KLUE를 주도한 업스테이지의 박은정 CSO는 “공통의 평가 지표가 있을 때 기술이 더 빨리 더 효과적으로 발전한다”며 “이 지표에 따라 AI 언어모델의 발전 방향이나 속도도 달라질 수 있어, KLUE는 이제부터 시작”이라고 말했다.
●한국 AI의 어벤져스 : KLUE에는 내로라하는 AI 연구팀이 대거 참여했다. 업스테이지 외에, 네이버 클로바와 KAIST·뉴욕주립대가 공동주최자로, 카카오엔터프라이즈와 스타트업(뤼이드·스캐터랩), 국내 유명 대학들이 공동연구자로 참여했다.
●저작권은? 편향성은?: ‘재배포·재가공할 수 있는 한국어 데이터 어디 가야 찾을 수 있나.’ 국내 AI 연구자들의 고충이다. 쓰레기를 넣으면 쓰레기가 나오므로(garbage in garbage out), AI에 아무 데이터나 학습시킬 수도 없다는데. KLUE는 이런 문제에 주목했다. 저작권 문제없는 데이터를 모으고, 이를 윤리연구팀이 검증했다. 누구든 한국어 AI 언어모델을 연구하겠다면 이 데이터를 갖다 쓰면 된다고. 무료다.

 네이버는 하이퍼클로바로 수많은 상품 리뷰를 한줄의 문장으로 추출해 주는 'AI 리뷰 요약'을 서비스 중이다.

네이버는 하이퍼클로바로 수많은 상품 리뷰를 한줄의 문장으로 추출해 주는 'AI 리뷰 요약'을 서비스 중이다.

6. 자비스는 언제쯤

빅테크 간 불꽃 튀는 경쟁으로 초대규모 AI 성능은 J커브를 그리며 발전. 반도체의 집적도 향상이 랩톱, 스마트폰 개발로 이어졌듯 초대규모 AI 발전도 새로운 서비스 출현을 예고한다. 앞으로 초대규모 AI는 한 언어를 넘어 여러 언어로(멀티 링구얼), 텍스트에서 소리·이미지·영상(멀티 모달)으로 영역을 넓혀갈 전망. 속도와 방향성을 결정할 외부 요인은?

① AI가 썼다고? 이거 누구 거?
●AI가 소설까지 쓴다는데, 현행법상 풀어야 할 문제는 두 가지. 첫번째는 AI가 어디서 배웠는지가 문제. 데이터 수집 과정에서 누군가의 저작권·개인정보를 침해했거나, 영업비밀 등을 가져다 쓰는 경우가 생길 수 있다. 두번째는 AI가 만든 콘텐츠가 누구 것인지다. 현행법 상 AI는 법인격이 없기 때문에 저작권을 인정받기 어렵다.
●김윤희 법무법인 세종 IP그룹 파트너 변호사는 “중국에선 텐센트가 만든 AI가 작성한 콘텐트의 저작권을 텐센트에게 인정한 판례가 지난해 나왔다”며 “국내에선 관련 판례, 법이 아직 없지만 논의를 본격 시작한 단계”라고 설명했다.

② 낯선 AI, 친구인가?
●새로운 기술에 대한 두려움, 사람이라면 느끼는 감정이다. 산업혁명 당시 기계를 부수던 ‘러다이트 운동’이 지금이라고 일어나지 말란 법 없다. 인간보다 뛰어난 역량을 보이는 기계라면 주의할 필요도.
박주용 카이스트 문화기술대학원 교수는 “기술과 사회가 만나는 지점은 굉장히 복잡하다”며 “거부감을 없애기 위해선 인간의 불편함을 끊임없이 해결해주는 방향으로 초대규모 AI를 발전시켜야 할 것”이라고 말했다.

 팩플서베이

한국어 초대규모 AI, 5년 뒤라면 팩플 레터를 쓸 수 있을까요? (소요시간 1분)
팩플레터를 구독하시면 설문에 참여하실 수 있습니다.

팩플팀이 추천하는 자료

1. 초대규모 AI모델의 부상과 대응방안 👉보고서 보기
한국지능정보사회진흥원에서 발간한 초대규모 AI관련 보고서 입니다. 초대규모AI모델의 특징과 글로벌 경쟁 환경, 향후 전략 등을 분석했습니다.

2. 나에게 필요한 인공지능, 내 손으로 쉽게 만들기 👉영상 보기
네이버 하이퍼클로바 스튜디오를 어디에 활용할 수 있는지 설명한 영상입니다. 평상시 쓰는 말로 손 쉽게 AI서비스를 만들 수 있는 방법 등이 담겨 있습니다. 오픈AI가 선보인 코딩 AI, 코덱스(Codex) 활용법이 궁금하다면 라이브 데모에서 보세요.

.

.