ADVERTISEMENT

키신저 “AI 위협 방치하면 16세기 잉카제국 꼴 난다”

중앙일보

입력

업데이트

지면보기

종합 26면

배명복
배명복 기자 중앙일보 칼럼니스트

인공지능의 국제정치학 

‘현실주의 외교의 영원한 콘실리에리(consigliere·상담역)’. 냉전이 한창이던 1970년대 백악관 안보보좌관과 국무장관을 지낸 헨리 키신저 박사에게 붙는 훈장 같은 수식어이다. 95세의 고령에도 그는 지금도 국제정치의 체스판을 주시하며 훈수를 두고 있다. 그의 고객 명단은 화려하다. 도널드 트럼프 미 대통령이 종종 그에게 자문을 구하는 것은 잘 알려진 사실이다. 블라디미르 푸틴 러시아 대통령과는 17번 만났다. 시진핑(習近平) 중국 국가주석도 고객 리스트의 앞자리를 차지하고 있다. 하지만 요즘 키신저의 관심사는 따로 있다. 인공지능(AI)이다.

[배명복 대기자의 퍼스펙티브] #요즘 키신저의 관심은 온통 AI #“남은 인생 AI에 매달릴 것” #백악관 직속 AI 위원회 설치 제안 #현실로 다가오는 AI 위협 #철저한 대비 없으면 재앙 될 것 #핵무기보다 무서운 AI 무기 #국제정치 질서 뒤흔들 수 있어 #유엔 차원 대책 서둘러야 #국제인공지능기구 창설해 #AI 기반 자율무기 금지하고 #평화적 이용 촉진해야

얼마 전 그는 미국 오피니언 리더들이 즐겨 읽는 월간지 ‘디 어틀랜틱(The Atlantic)’에 AI의 위험성을 경고하는 장문의 글을 실었다. AI 기술의 급속한 발전이 초래할 위험에 미리 대비하지 않으면 인류가 심각한 위기에 직면할 수 있다는 취지다. 그는 지금 인류가 처한 현실을 16세기 스페인 정복자들이 등장하기 직전의 잉카인들 처지에 비유한다. 이해할 수 없는 ‘콘키스타도르’의 문화와 압도적 무력 앞에 잉카제국이 처참하게 무너졌듯이 지금부터 AI 시대의 도래에 대비하지 않으면 인류가 잉카인들처럼 될 수 있다는 경고다. 키신저는 각계의 최고 전문가들이 참여하는 대통령 직속 AI 위원회를 설치해 기술적 측면부터 정치적, 경제적, 철학적, 윤리적, 법적, 외교적, 군사적 측면까지 광범위한 논의를 시작할 것을 제안했다.

[그래픽=박경민 기자 minn@joongang.co.kr]

[그래픽=박경민 기자 minn@joongang.co.kr]

키신저는 지난달 21일 영국 파이낸셜타임스와의 인터뷰에서 “앞으로 내가 얼마나 더 살지 모르지만 남은 기간은 계속해서 AI 문제를 제기하는 데 바칠 생각”이라고 말했다. 키신저가 자기 전공도 아닌 AI에 이토록 꽂힌 것은 AI가 자신의 전문 분야인 국제정치에 미칠 파급력이 그만큼 크다는 걸 간파했기 때문이다. 화약의 발명이 세계사를 바꾼 1차 국제정치 혁명의 촉매제였다면 핵은 2차 국제정치 혁명의 기폭제였다. 급속히 발전하고 있는 AI는 3차 국제정치 혁명의 도화선이 될 가능성이 크다. 본격적인 AI 시대의 개막과 함께 국제질서는 격변과 대혼란에 직면할 수 있다.

역사가 보여주듯이 신(新)기술은 두 얼굴을 갖고 있다. 혁신적 기술을 인간의 삶을 개선하는 용도로 사용하면 약(藥)이 되지만, 파괴적 용도로 사용하면 독(毒)이 된다. 핵이 지닌 ‘이중 용도(dual use)’의 양면성은 AI도 마찬가지다. 좋은 쪽으로 사용하면 삶의 질을 높이는 데 기여할 수 있지만, 그 반대의 가능성을 무시할 수 없다. 최첨단 알고리즘과 빅데이터로 무장한 AI의 잠재적 위협은 할리우드 SF영화의 단골 소재다. 인간의 지능을 뛰어넘어 의식까지 갖춘 슈퍼 AI 로봇이 인류를 파멸에 이르게 한다는 디스토피아 적 상상은 어제오늘 얘기가 아니다. 천재 바둑 기사 이세돌을 꺾은 알파고의 사례에서 본 것처럼 기계학습을 통해 AI의 능력이 비약적으로 발전하면서 AI는 더이상 상상이 아닌 현실의 위협으로 다가오고 있다.

신기술의 효과가 강력할수록 그것을 무기화하려는 유혹을 떨치기 어렵다고 워싱턴 소재 싱크탱크인 신(新)미국안보센터의 그렉 알렌 박사는 말한다. 그는 지난해 7월 미 국가정보국(DNI)의 의뢰로 하버드대 벨퍼 센터와 공동으로 ‘AI와 국가안보’라는 132쪽짜리 보고서를 작성했다. 보고서는 일정 수준에서 통제하고 규제할 수는 있어도 AI의 무기화 자체를 막기는 어렵다고 보고 있다.

전장에서 병사가 수행하는 위험한 임무는 머지않아 AI를 장착한 로봇이 대신할 가능성이 크다. 이라크전과 아프가니스탄전에서 혁혁한 전과를 올린 무인항공기(UAV)와 무인지상차량(UGV)의 성능은 AI 기술과 결합하면서 더욱 고도화할 것이다. 평창 동계올림픽 개막식 상공을 수놓았던 초소형 드론들이 떼 지어 몰려다니며 적진을 공격하고, 지휘체계를 교란하는 것도 충분히 가능하다. AI를 탑재한 초소형 자율주행 로봇이 적장(敵將)의 숙소에 침투해 독극물을 주입하고 감쪽같이 사라지는 소설적 상상도 현실이 될 수 있다.

양산 시스템을 통해 전투용 로봇의 제작 단가가 떨어지면 전쟁의 양상은 크게 달라질 것이다. 1선은 UAV와 UGV가 맡고, 무인로봇이 2선을 맡게 된다. 실제 전쟁은 AI를 장착한 기계가 하고, 인간은 배후에서 조종하는 역할을 맡는다. AI 무기 원격조종 시스템을 파괴하거나 해킹해 오작동을 유도하고, 이를 막는 것이 공격과 방어의 핵심을 이루면서 미래의 전쟁은 사이버전 양상을 띠게 될 것이다. 이스라엘의 유발 하라리 교수가 『호모데우스』 에서 언급한대로 무인드론과 사이버 바이러스를 갖춘 첨단부대가 20세기의 대규모 군대를 대체하고, 장군들은 중요한 결정을 점점 더 알고리즘에 위임하게 될 것이다. 피를 흘릴 일이 점점 줄어들기 때문에 전쟁 가능성은 지금보다 더 커질 수 있다.

AI의 패턴 인식 기술이 급속히 발전하고, 방대한 양의 음성과 영상 테이터가 쌓이면서 가능해진 ‘딥 페이크(deep fake)’도 국제정치의 혼란을 가중시킬 주요 요인이다. 지금 기술 수준으로도 진짜 같은 가짜 동영상을 만들 수 있다. 트럼프가 대국민 담화를 통해 북한에 대한 핵 공격을 명령했다고 발표하는 가짜 동영상이 순식간에 소셜미디어를 통해 전 세계에 유포됐을 때 초래될 혼란은 상상하기 어렵다. AI 기술이 여론 조작이나 교란, 선전·선동에 사용되면서 사실과 거짓의 구별은 점점 더 어려워질 것이다.

무인공격기나 무인장갑차, 무인로봇 등 현존하는 AI 무기는 인간의 조작에 따라 임무를 수행한다. 하지만 인간의 통제를 받지 않는 자율살상무기가 등장한다면 얘기는 완전히 달라진다. 자율주행차처럼 스스로 알아서 적진을 누비며 자율적 판단에 따라 사람을 살상하는 킬러 로봇의 등장은 엄청난 윤리적, 법적 논란을 초래할 수밖에 없다. 인간의 생명을 기계의 결정에 맡기는 셈이기 때문이다. 인류는 지금 그 선을 넘기 직전이다.

휴먼라이츠워치, 국제앰네스티 같은 국제 인권단체들은 물론이고 과학계도 절대 그 선을 넘어선 안 된다고 목소리를 높이고 있다. ‘판도라의 상자’를 열지 말라는 것이다. 고인이 된 천체물리학자 스티븐 호킹, 애플 공동창업자인 스티브 워즈니악 등 1000명이 넘는 과학자들은 2015년 AI가 장착된 자율살상무기에 대한 심각한 우려를 담은 서한을 유엔에 보냈다. 작년 8월에는 116명의 로봇 전문가들이 킬러 로봇 개발 금지를 촉구하는 성명을 발표했다. 그중에는 테슬라의 창업자인 일론 머스크, 알파고를 개발한 딥마인드의 공동창업자인 무스타파 술레이만 같은 저명한 AI 전문가도 포함돼 있다.

세계적인 로봇 과학자 50여명은 지난 4월 한국과학기술원(KAIST)이 국내 방산기업과 추진키로 한 AI 무기 연구 과제를 문제 삼으며 KAIST와의 공동연구 보이콧을 선언했다. 자율살상무기에 대한 극도의 경계심을 보여준 상징적 사례다. KAIST는 “인간의 의미 있는 조종 없이 작동하는 자율무기 등 인간 존엄성에 반하는 어떤 연구 활동도 하지 않을 것”이란 성명을 서둘러 발표하며 논란을 진화해야 했다.

AI의 무기화에서 가장 앞선 나라는 미국이다. AI 분야 종사자만 85만명이 넘는다. 중국은 향후 3년 내 10만 명의 AI 인재를 양성해 5년 안에 미국을 따라잡는다는 계획이다. 핵무기 경쟁이 미국과 옛 소련의 경쟁이었다면 AI 무기는 미·중의 경쟁이 될 것이다. 미·중이 본격적인 AI 무기 경쟁에 돌입하면 크고 작은 다른 나라들은 물론이고, 비(非)국가 단체들까지 뛰어들어 세계적인 군비경쟁이 벌어질 가능성이 크다. AI 무기는 소수의 천재적 과학자와 기술자만 있어도 일정 수준까지는 끌어올릴 수 있는 비대칭성이 특징이다. 이슬람 무장집단인 IS는 이미 무인항공기를 전투에 활용하고 있다. 미래 전력의 핵심이 될 사이버 공격 능력에서 북한은 세계적 수준에 도달해 있다.

AI 시대가 본격화하면 국력의 판도가 어떻게 바뀔지 모른다. 국가의 규모가 크다고 좋은 것도 아니다. 많은 인구는 되레 부담이 될 수 있다. AI를 중심으로 형성되는 극소수의 ‘엘리트 집단(H+)’이 부양하고 책임져야 할 대다수의 ‘AI 소외 집단(H-)’이 그만큼 커지기 때문이다. AI와 로봇 탓에 일터와 병영에서 밀려난 다수의 개인은 사회적으로 쓸모없는 잉여인력으로 전락할 가능성이 크다. 인간의 존엄성이 사라지는 포스트 휴머니즘 사회의 개막이 국제정치와 경제에 미칠 파장은 세계화의 충격과는 비교가 안 될 것이다.

미국의 드와이트 아이젠하워 대통령은 1953년 유엔 총회 연설에서 ‘평화를 위한 핵(Atom for Peace)’을 역설하며 국제원자력기구(IAEA) 창설을 제안했다. AI로 인한 비극을 막기 위해서는 ‘인류를 위한 인공지능(AI for Mankind)’의 정신으로 ‘국제인공지능기구(IAIA)’를 만들어 AI가 초래할 국제정치적 위험에 대비해야 한다고 프랑스의 국제정치학자 다비드 고세는 말한다. 그의 주장대로 IAIA가 창설된다면 자율살상무기의 개발을 금지하고, 모든 나라가 평화적 목적의 AI 이용 혜택을 골고루 누리게 하는 것이 목적이 되어야 한다.

중국은 외교에도 AI를 도입하기 시작했다. 외교관들이 주고받은 사소한 농담부터 첩보위성이 포착한 영상정보까지 수시로 업데이트되는 방대한 외교·안보 관련 빅데이터를 토대로 국제정치 현안을 분석, 평가, 예측하고 솔루션을 제시하는 초기 버전의 알고리즘을 개발해 활용에 들어갔다는 것이다. 인간의 감정에 휘둘리지 않는 냉철함으로 무장한 중국의 ‘외교 AI’가 어쩌면 키신저가 가장 두려워해야 할 대상인지 모른다.

배명복 중앙일보 칼럼니스트