ADVERTISEMENT

"트럼프는 완전 머저리" 가짜 오바마 영상이 정치판 흔들 수 있다?

중앙일보

입력

버즈피드가 지난 4월 공동제작해 공개한 버락 오바마 전 미 대통령 딥페이크(deepfake) 영상의 한 장면. [유튜브 캡처]

버즈피드가 지난 4월 공동제작해 공개한 버락 오바마 전 미 대통령 딥페이크(deepfake) 영상의 한 장면. [유튜브 캡처]

“간단히 이렇게 말해볼까요. 트럼프 대통령은 아주 완전히 머저리(dipshit)입니다.”

인공지능 활용한 페이크 비디오 제작 봇물 #실제 할리우드 배우 합성한 가짜 포르노도 #"선거 혼란 야기할 수도" 美정부 대응 나서

버락 오바마 전 미국 대통령이 단호한 표정으로 말하는 이 영상, 어느 TV 인터뷰 장면 같다. 아무리 그래도 후임자를 이렇게 공공연히 흉봐서야 싶은데, 오바마의 다음 말. “제가 이런 말을 할 사람이 아니란 건 아시죠, 적어도 대중 연설에선.”

어디까지 농담인가 싶겠지만 실은 어떤 것도 오바마가 직접 한 말이 아니다. 이 영상은 지난 4월 미국 온라인매체 버즈피드와 조던 필레 감독(영화 ‘겟아웃’)이 이끄는 멍키포 프러덕션이 공동 작업한 ‘딥페이크(deepfake)’다.

딥페이크란 인공지능(AI)이나 얼굴매핑(facial mapping) 기술을 활용해 특정 영상에 합성한 편집물을 일컫는다. 특정인의 표정이나 버릇, 목소리, 억양 등을 그대로 흉내내 사실처럼 보이게 한다. 활자와 사진을 조작하는 수준의 페이크 뉴스(fake news·가짜뉴스)를 뛰어넘는 속임이 가능하기 때문에 딥페이크로 불린다.

딥페이크는 처음 등장 때만 해도 주로 유명인을 풍자하거나 개그맨들의 웃음거리 소재로 활용됐다. 그러다가 지난해 말 AI 알고리즘을 이용하여 포르노배우의 몸에 ‘원더우먼’ 배우 갤 가돗의 얼굴을 합성한 가짜 포르노영상이 등장하면서 새삼 논란이 됐다. 이를 제작한 딥페이크라는 미국 네티즌은 자신이 사용한 기술이 대중적으로 공개돼 있는 멀티오픈소스 기반의 소프트웨어라고 밝혔다. 누구나 약간의 기술과 의지만 있으면 이런 가짜 포르노를 얼마든 만들 수 있다는 얘기다.

지난 2017년 인공지능(AI) 알고리즘을 이용하여 포르노배우의 몸에 ‘원더우먼’ 배우 갤 가돗의 얼굴을 합성한 가짜 포르노영상이 공개돼 파문이 일었다. 화면은 페이크 포르노 장면 캡처. [유튜브 캡처]

지난 2017년 인공지능(AI) 알고리즘을 이용하여 포르노배우의 몸에 ‘원더우먼’ 배우 갤 가돗의 얼굴을 합성한 가짜 포르노영상이 공개돼 파문이 일었다. 화면은 페이크 포르노 장면 캡처. [유튜브 캡처]

이 같은 딥페이크를 만드는 데는 최첨단 카메라도 필요 없다. 해당 인물의 풍부한 표정이 담긴 15초 가량의 원본 영상과 웹캠, 그리고 소프트웨어만 있으면 그럴 듯한 딥페이크 한편을 만들 수 있다. 버즈피드 역시 필레 감독과 이 정도의 노력만으로 1분여짜리 오마마 동영상을 만들 수 있었다. 다만 버즈피드는 이 영상이 ‘딥페이크 경고용’이란 걸 처음부터 끝까지 밝혔다.

문제는 그런 맥락 없이 유포되는 영상이 늘고 있다는 점이다. 유튜브에 올라온 또다른 딥페이크에선 앙겔라 메르켈 독일 총리가 마치 히틀러를 연상시키는 말투로 이렇게 말한다. “우리 유럽인들은 우리 손으로 운명을 결정해야 합니다. 미국 및 영국과 우호 관계 속에, 가능하면 러시아나 다른 좋은 이웃들과 말입니다.” 메르켈과 트럼프 정부 혹은 러시아 푸틴과의 껄끄러운 관계를 모른다면 실제 연설로 믿을 수 있다. 게다가 지난해 난민 출신 테러리스트와 사진을 찍었다는 '가짜 뉴스'에 시달렸던 메르켈 총리로선 이런 가짜 영상 자체가 반갑지 않을 수 있다.

이 때문에 기술 발전과 함께 딥페이크가 1~2년내 미국 정계를 포함해 국제사회에 큰 문제를 초래할 수 있다는 우려가 나온다. 예컨대 외국 정보기관이 가짜 동영상을 만들어 미국 정치인이나 미군의 평판을 크게 훼손하는 식이다. AP통신은 2일 이란이나 북한 지도자가 ‘위협적 발언’을 하는 페이크 비디오가 외교 혼란을 초래할 가능성도 지적했다.

공화당 소속 마르코 루비오 상원의원은 AP통신에 “가짜 뉴스가 비디오의 형태로 유포돼 선거 전날이나 다른 특정 사태 때 혼란과 불안을 초래할 수 있다”고 말했다. 미국 다트머스 대학의 디지털 포렌식 전문가인 하니 파리드는 "미국에서는 (오는 11월) 중간선거와 2년 후 전국 차원의 선거에서 이런 문제들을 겪기 시작할 것"이라고 전망했다.

이런 현상이 일반화되면 나중엔 진짜 영상의 신뢰도가 떨어질 수 있다. 미국 매체 더애틀랜틱은 정치인 비리에 대한 영상이 폭로되더라도 사람들이 이를 ‘딥페이크’라 여기며 부인할 수 있다고 내다봤다. 미국 스탠퍼드대학 국제안보협력센터(CISC) 앤드루 그로토 연구원은 "1~2년 안에 진짜 동영상과 가짜 동영상을 구별하기는 정말로 어려울 것"이라며 많은 나라가 이를 활용하려는 유혹에 빠질 가능성이 크다고 진단했다.

이 같은 '역정보 전쟁'(disinformation war)에 대한 대응도 시작됐다. AP통신에 따르면 미국 국방부 소속 방위고등연구계획국(DARPA)은 가짜 사진과 가짜 동영상을 분간할 수 있는 기술을 개발하기 위한 4년짜리 연구 프로그램을 2년 전 시작했다. 오는 여름엔 전 세계 인공지능 전문가들을 대상으로 딥페이크 동영상을 제작하고 감식하는 경진대회도 연다. 마치 해킹이 처음 이슈가 됐을 때 이를 겨냥한 대응과 비슷하다.

가짜 비디오를 둘러싼 창과 방패의 전쟁에서 과연 어느 쪽이 앞서갈까. IT 컨설팅그룹 가트너가 지난해 10월 내놓은 보고서에 따르면 “인공지능을 활용한 가짜 콘텐트 제작이 점차 빨라지고 있는 반면, 인공지능을 활용한 가짜 컨텐츠를 파악하는 기술이 상대적으로 뒤떨어지고 있다”고 한다. 결론은? 안타깝게도 “2022년이 되면 대부분의 사람들이 진짜 정보보다 가짜 정보를 더 많이 접하게 될 것”이라는 게 이들이 전망하는 미래 모습이다.

강혜란 기자 theother@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT