ADVERTISEMENT

[최계영의 중국 프리즘] 인공지능과 선거 개입

중앙일보

입력

업데이트

사진 셔터스톡

사진 셔터스톡

2023년이 저물고 있다. 다가오는 2024년은 글로벌 차원에서 선거의 해라고 할 수 있다. 미국의 대통령 선거, 대만의 총통 선거는 지정학적 의미에서 중요한 의미를 갖는 선거이다. 이 밖에도 지구촌 곳곳에서 총 42억 인구에 해당하는 약 70개 선거가 기다리고 있다. 하지만 중요한 선거들을 앞두고 생성 인공지능과 같은 첨단 디지털 기술의 발달이 민주주의의 핵심이라 할 수 있는 자유선거를 위협할 수 있다는 경계심도 높아지고 있다. 특히 중국이나 러시아는 타국의 선거에 개입하였다는 의혹의 중심에 놓여있는 국가들임과 동시에 선거개입이 가능한 기술을 보유하고 있다는 점에서 주목받고 있다. 인터넷을 둘러싼 첨단 디지털 기술 혁신이 선거, 더 나아가 민주주의에 악용되지 않도록 하는 것은 우리 시대가 해결해야 할 중요한 숙제가 아닐 수 없다.

인터넷을 둘러싼 첨단 디지털 기술과 러시아, 중국의 선거개입 역사

네트워크로 연결된 세계에서 디지털 기술, 구체적으로는 소셜 미디어를 이용한 선거 개입의 가장 대표적인 사례는 2016년 러시아의 미국 대선 개입 사건이다. 상트페테르부르크 소재 인터넷 리서치 에이전시 (IRA)가 수천 개의 소셜 미디어 계정을 만들어 친(親)트럼프, 반(反)클린턴 허위정보, 가짜 뉴스를 외부로 확산시킨 것이다. 미국 정보 커뮤니티는 이를 ‘락타 프로젝트(Project Lakhta)’라 지칭하고 푸틴 대통령의 지시로 프로젝트가 수행되었음을 비난하였고 오바마 대통령은 러시아 경제 제재 및 러시아 외교 시설 폐쇄 조치로 대응한다. 이 당시 이미 첨단 기술의 발전이 선거에 미칠 영향을 경고하는 목소리가 나왔다는 것도 특기할 만하다. 러시아의 선거 개입 사태를 분석한 스텐포드 대학 사이버 정책 센터의 보고서(2019. 9)는 미래 선거가 실제 득표수 조작에서부터 딥페이크나 인공지능 콘텐츠 생성 기술의 활용에 이르기까지 다양한 문제들에 직면할 것이라고 경고한 것이다.

중국도 러시아만큼이나 선거 개입의 의혹을 많이 받는 국가이다. 지난 칼럼에서 소개했듯이 중국은 영향공작을 적극적으로 추구하는 국가이며, 선거 개입은 직접적인 효과를 기대할 수 있는 대표적인 영향공작의 영역이다. 중국의 영향공작, 선전 활동은 통일전선공작부와 인민해방군을 포함하는 다양한 조직, 국영 및 민영 기업, 미디어 기업이 참여하는 방대한 생태계를 이루고 있다고 평가받고 있다. 호주전략정책연구소에 따르면 2017년 8월 ~ 2022년 12월 기간 중 중국 공산당과 연계된, 외부 세계에 대한 온라인 영향공작으로 적어도 51건의 보고 사례가 알려져 있는데 이용 플랫폼은 트위터, 페이스북, 레딧, 유튜브, 인스타그램 등을 망라하였다고 한다. 주요 수단은 가짜 계정을 이용한 선전 활동과 허위정보 유통으로, 여러 플랫폼에 걸친 수많은 허위 계정 네트워크인 드래곤브릿지(DragonBridge), 또는 스패모플라지(Spamouflage) 네트워크를 이용하는 것으로 알려져 있다. 알려진 사례 가운데 영어, 독일어 등 다국적 언어를 동원한 정보의 유포도 자주 발견되며, 여기에는 한국어도 포함된다.

중국의 선거 개입 의혹은 미국, 대만, 태국, 캐나다, 호주 등 많은 국가에서 제기되었다. 월스트리트저널의 기사(2022. 10. 26)는 미국 중간선거에 중국 댓글 부대가 미국의 정치분열, 불협화음을 부채질하고 있다며, 특정 정당이나 후보 지지가 아니라 선거 과정의 진실성, 대의 민주주의의 효용성 자체에 의문을 제기하는 내용을 주로 담고 있다고 폭로한다. 지난해 9월에는 호주의 국가안보정보원(ASIO)이 친중 후보 매수를 통한 중국의 선거개입 의혹을 제기하면서 호주 집권당과 야당 간의 공방이 벌어졌다. 캐나다에서도 2021년 총선에서 집권당 승리와 친중 성향 후보 당선을 위해 중국 정부가 직접 개입했다는 미디어의 폭로 보도로 파문이 일기도 하였다.

대만은 중국의 선거 개입 논란이 가장 심각한 곳이다. 2019년 호주에 망명한 중국 스파이가 폭로한 내용에 따르면, 중국이 온라인 공작부대 운용 및 친중 후보 정치자금 지원으로 총통선거에 영향을 끼치려 시도했다고 한다. 조지 워싱턴 대학 아시아학 연구소 보고서(2019.1)에 따르면 우리에게도 잘 알려진 중국의 댓글 부대인 50센트당이 대만의 주요 소셜 미디어에서 하루 평균 2500회 반중(反中) 후보를 공격한다고 한다. 지난 10월 차이밍옌(蔡明彥) 대만 국가안전국 국장은 의회 보고에서 중국에서 만든 가짜 뉴스를 대만 국가안전국이 적발해 정부에 통보한 사례가 1700건에 달하며 내년 1월 총통선거에서 여론조사기관이나 광고회사를 이용해 중국이 여론조사를 조작할 가능성을 경고하기도 하였다.

지금까지의 사례를 통해 알 수 있듯이, 선거에 영향을 미치기 위해서는 선거에 즈음한 온‧오프라인 공작은 물론이고 평상시 친중 담론의 확산이나 중국에 우호적인 정치사회 세력의 구축, 즉 통일전선 전술의 실행이 중요하다. 사실 선거에 영향을 미칠 수 있는 방법은 경제적, 군사적 위협에서부터 지원 후보 자금 지원, 미디어 장악, 허위정보 유포 등 무궁무진하다. 하지만 2024년에 즈음하여 주목받아야 할 것은 첨단 디지털 기술이 가져올 수도 있는 새로운 잠재적 위협이다. 특히 생성 인공지능 혁신이 소셜 미디어를 통한 영향공작의 혁신으로 이어질 가능성에 주목할 필요가 있다.

생성 인공지능의 위협과 소셜 미디어

지금까지 온라인 공작은 첨단 기술이라고 부르기에는 미흡한, 인간에게 적지 않게 의존하는 방식으로 수행되어왔다. 기초적 프로그래밍에 의존하는 반(半)자동 봇(Bot)이 인간이 생성한 콘텐츠를 포스팅하거나, 초기 기계학습 기술을 이용한 저사양의 컴퓨터 생성 콘텐츠를 대량으로 생성해 정보공간을 장악하려는 시도가 주된 방식이었던 것이다.

이러한 방식은 허위정보 식별이 용이하고 비용도 많이 든다는 것이 단점이다. 하지만 생성 인공지능은 지금까지의 온라인 공작, 특히 소셜 미디어 영향공작의 효율성을 획기적으로 증대할 수 있다. 생성 인공지능은 식별이 어려운, 그럴듯한 고사양의 맞춤형 콘텐츠를 저비용으로 광범위하게 확산시킬 수 있다. 즉 콘텐츠 생성의 자동화로 인한 영향공작 비용 감소로 대규모의, 다양한 공작 행위자가 대두할 수 있는 것이다. 동태적, 실시간, 개인화된 콘텐츠 생성과 같이 새로운 전술도 등장할 전망이고 과거보다 더욱 전문적이고 믿음직한 메시징이 가능해 허위‧선전 여부를 발견하기는 어려워질 것이다. 생성형 인공지능으로 허위정보가 범람하고, 이를 프롬프트(prompt) 데이터로 활용할수록 인공지능이 의도하지 않더라도 자체적으로 잘못된 콘텐츠를 생성할 수도 있다. 즉, 누구라도 의도하지 않고도 허위정보의 생성, 전달자가 될 수 있으며 특정 소셜 플랫폼에서 시작된 허위정보 캠페인이 다수의 플랫폼으로, 그리고 전통적인 미디어 및 인플루언서로 확대되면서 그 영향력이 증폭될 수 있는 것이다.

랜드(RAND) 연구소의 보고서 ‘생성 인공지능의 대두와 소셜 미디어 조작 3.0 시대의 도래’(2023. 9)는 특히 중국과 같이 영향공작, 선전전을 중시하는 국가들에 의한 애스트로터핑(astroturfing)의 위협에 주목한다. 애스트로터핑은 특정 사안에 풀뿌리 운동처럼 보이려고 공적 관계나 정치적 캠페인을 이용하는 것을 의미하는데, 생성 인공지능의 발전으로 향후에는 자동화된 봇이 평상시부터 타깃이 되는 소셜 미디어 이용자와 소통하면서 선거에 영향을 미치는 것, 즉 자동화된 애스트로터핑이 가능하리라 전망한다. 보고서는 중국의 인민해방군 영향공작 이론가인 리비청(李弼程)의 이론을 소개하는데, 이에 따르면 공작지휘 조직으로부터의 지도와 특정 캐릭터를 갖춘 가공의 페르소나, 온라인 여론 상황에 따른 조정, 다수의 페르소나 간의 조율‧협력이 작동해 소셜 미디어 여론을 이끄는 인공지능 모델을 통해 미래 정보전, 인지전(Cognitive Warfare)을 중국이 수행해야 함을 설파한다. 만약 이런 생성 인공지능 모델이 작동한다면 생성 인공지능의 에스트로터핑은 평소에 잘 드러나지 않다가 결정적 순간에 정치적 내레이션이 가능할 것이고 선거에도 큰 영향을 미칠 수 있을 것이다. 인민해방군이 전통적으로 인지전을 중요시하고 311기지(Base)로 알려진 여론‧선전전 조직을 운용해 왔음을 고려하면 인민해방군, 더 나아가 중국 공산당이 생성 인공지능의 활용에 관심이 커지는 것은 자연스러운 현상이 아닐 수 없다.

민주주의의 수호

대만 국가안전국(NSB)은 '대만안보에 대한 중국 공산당의 복합적 위협' 보고서(2023. 4. 26)에서 최근 딥페이크, 챗GPT 등 인공지능 기술의 성숙도를 고려할 때 중국이 관련 기술과 플랫폼을 이용해 대만에 인지 작전을 시행할 수 있다고 밝혔다. 지난 APEC 정상회의 기간에 열린 미‧중 정상회담에서는 바이든 대통령이 시진핑 주석에게 대만 선거 절차 존중을 요구한다. 글로벌 선거의 해 2024년에 즈음하여, 이미 인공지능의 선거 개입 문제는 시급한 현안으로 떠오르고 있는 것이다.

메타의 올해 2분기 적대적 위협(Adversarial Threat) 리포트에 따르면 50만명 이상의 페이스북 이용자가 적어도 하나 이상의 중국 네트워크의 허위계정을 팔로우하고 있다. 글로벌 플랫폼은 사실상 전 세계인이 이용하고 있는데, 이런 현상이 메타의 서비스에만 국한되지는 않을 것이다. 생성 인공지능의 잠재적 위협에서 우리도 자유롭지 않은 것이다. 더구나 생성 인공지능은 유비쿼터스하지만 글로벌 차원에서의 규제는 요원하다. 빅테크를 규제한다고 해도 오픈소스에 기반을 둔 저렴한 인공지능 모델의 악용까지 막을 수 있을지는 불분명하다. 아이러니하게도, 어쩌면 이미 양극화된 정치 지형에서 유권자들이 정치 콘텐츠를 대부분 스팸으로 간주한다면 혁신적인 기술의 악영향이 제한적일 수도 있겠다. 하지만 생성 인공지능, 혁신 디지털 기술의 악용이 정보공간은 물론이고 정치 자체에 대한 신뢰를 무너뜨린다면 민주주의가 위기에 처하게 될 것이다.

국제사회는 지난 G-7 정상회의에서 공표된 히로시마 인공지능 프로세스를 중심으로 이미 영향공작과 선전, 선거개입 리스크에 대한 대응 노력을 시작하였다. 우리도 대내외적으로 무엇을 어떻게 준비하고 협력할 것인지 진지하게 고민해야 시점이다. 특히 민간 플랫폼 기업, 인공지능 기술기업들이 정보공간의 혼탁을 방어하는 노력에 적극 동참해야 할 것이다. 정보공간이 혼탁해지면 우리의 민주주의뿐만 아니라 시장도 위기에 처할 것이기 때문이다.

최계영 정보통신정책연구원 선임연구위원

ADVERTISEMENT
ADVERTISEMENT