ADVERTISEMENT
더 차이나 박성훈의 차이나 시그널

"영상통화 믿지마" 공안 경고했다…10분새 7억 뜯은 '中 AI 피싱'

중앙일보

입력

업데이트

지면보기

종합 23면

박성훈 베이징 특파원

박성훈 베이징 특파원

중국에서 인공지능(AI) 사기가 횡행하고 있다. 발전하는 AI 기술에 기반해 얼굴과 음성을 변조한 뒤 상대방을 속여 돈을 가로채는 수법이다. 검사를 사칭한 전화로 이체를 유도하는 보이스 피싱보다 한 단계 더 진화한 이른바 ‘AI 피싱’이다. 얼마나 정교하게 변환하고 어떤 상황으로 접근했기에 이런 사기가 가능한 걸까.

지난 4월 20일 오전 11시 40분, 중국 푸저우시(福州市)의 한 기업 대표 궈(郭)모씨에게 평소 가까운 친구의 위챗(중국식 카카오톡)으로 영상 통화가 걸려왔다. 안부를 주고받은 뒤 그는 지인이 외지 기업 입찰을 하는데 보증금 430만 위안(약 7억7000만원)을 이체해야 한다며 제한 조건 때문에 궈씨의 법인 계좌로 보증금을 납부할 수 있는지 물었다. 궈씨는 의심 없이 법인 계좌를 알려줬고 잠시 뒤 친구는 430만 위안을 법인 계좌로 이체했다는 명세서 사진을 보내며 궈씨에게 입찰 계좌로 돈을 재송금해 달라고 요청했다.

여성이 걸어오면서 얼굴이 다른 사람으로 계속 바뀐다. AI 얼굴 변환 프로그램을 사용하면 이런 실시간 얼굴 변형이 가능하다. 사진 더우인 캡처

여성이 걸어오면서 얼굴이 다른 사람으로 계속 바뀐다. AI 얼굴 변환 프로그램을 사용하면 이런 실시간 얼굴 변형이 가능하다. 사진 더우인 캡처

11시 49분, 궈씨는 친구가 알려준 계좌로 430만 위안을 다시 송금했다. 믿었던 친구의 부탁인 탓에 계좌에 돈이 들어왔는지 여부는 따로 확인하지 않았다고 한다. 하지만 궈씨가 돈을 이체했다고 친구에게 다시 연락하자 친구는 깜짝 놀라며 그런 부탁을 한 적이 없다고 했다. 얼굴·음성을 변조해 친구로 가장한 뒤 영상통화로 속인 ‘AI 피싱’ 사기였다.

중국 네이멍구(內蒙古) 바오터우시(包頭市) 공안당국은 지난달 20일 사건의 전모를 이례적으로 상세히 공개했다. 통신범죄수사국은 “AI 기술을 이용한 통신 사기로 10분 만에 430만 위안을 편취당했다”며 “은행의 협조를 받아 즉시 자금 336만 위안(약 6억 원)을 회수하는데 성공했으며 푸저우 공안국이 미회수된 자금 행방과 용의자를 추적하고 있다”고 밝혔다.

“얼굴 보며 통화, 전혀 의심 안해” 

중국 매일경제신문에 따르면 궈씨는 “처음부터 내게 돈을 빌려달라고 하는 게 아니었다. 먼저 돈을 보내니 이체해주라는 식이었다”며 “친구 얼굴을 보며 영상 통화를 했으니 전혀 의심을 하지 않았다”고 말했다. 영상통화에선 가짜라고 식별하지 못할 정도로 감쪽같았다는 얘기다.

회사 대표를 사칭해 직원과 영상통화를 한 뒤, 보내준 계좌로 자금을 이체하라고 지시하는 문자. 사진 후난성 창더시 공안국 위챗 계정 캡처

회사 대표를 사칭해 직원과 영상통화를 한 뒤, 보내준 계좌로 자금을 이체하라고 지시하는 문자. 사진 후난성 창더시 공안국 위챗 계정 캡처

회사 상사를 사칭한 영상통화 사기도 있다. 직원 리(李)씨는 갑자기 회사 대표 쩡(曾)씨의 위챗 친구 신청을 받았다. 이름과 프로필 사진 모두 일치해 대표가 아닐 거라곤 의심조차 하지 않았다. 대표의 친구 신청에 놀란 리 씨는 “대표님 안녕하십니까”라며 문자를 보냈고 이어 영상 통화가 걸려와 8초간 대화를 나눴다. 이후 쩡 대표는 “회의 중이라 통화가 불편하다”며 “보내준 계좌로 4만8000위안(약 900만원)을 이체하라”고 지시했다. 리 씨는 지시대로 돈을 보냈지만 AI 기술로 얼굴을 위조한 사기였다.

공안 “영상통화 믿지 말라” 

후난성(湖南省) 창더시(常德市) 공안국은 회사 대표를 사칭한 피해가 잇따르고 있다며 AI 사기 피해 경계령까지 내렸다. 쓰촨성(四川省)에선 동창으로 위장해 돈을 빼돌리는 일도 벌어졌다. 중국 전역에서 잇따르는 사기 행각에 공안 당국은 “영상통화로 보고 듣는 것은 사실이 아닐 수 있으므로 관련 정보를 여러 사람에게 확인하기 바란다”며 “상사나 지인이 송금을 요청하는 경우 상대방이 맞는지 여부를 다른 방법으로 확인해야 한다”고 발표했다.

중국의 AI 기술은 빠른 속도로 발전하고 있다. 중국 지닝시(濟寧市) 공안국 자료에 따르면 AI 기술로 얼굴을 바꾼 뒤 영상을 재생하는 것 뿐 아니라 실시간으로 촬영 중인 사람의 얼굴을 바꿔 대화할 수도 있다. 사진 한장만 있으면 눈을 깜빡이거나 고개를 끄덕이고 머리를 흔들 수 있게 만들 수 있다.

또 현재 기술로는 30초 가량의 오디오만 있으면 나이, 목소리 톤, 어조 등 대상자 목소리의 특징을 포착해 재연할 수 있다. 자오젠치앙(趙建强) 샤먼(廈門) AI 연구센터 책임연구원은 베이징 신경보(新京報)와의 인터뷰에서 “현재의 AI 기술은 더이상 실험용이 아니며 얼굴·음성 변환 기술이 성숙 단계에 접어들어 이미 대부분 오픈 소스인 상태”라고 말했다.

AI 기술에 기반한 '얼굴 변환' 프로그램 조작 화면. 남성의 얼굴을 중국 여성으로 바꿨다. 남성의 표정에 맞춰 여성의 표정이 바뀐다. 사진 더우인 캡처

AI 기술에 기반한 '얼굴 변환' 프로그램 조작 화면. 남성의 얼굴을 중국 여성으로 바꿨다. 남성의 표정에 맞춰 여성의 표정이 바뀐다. 사진 더우인 캡처

실제 중국 전용 앱스토어인 잉용바오(應用寶)에서 ‘AI얼굴변환’으로 검색하면 관련 앱 수십 개가 쏟아진다. 인기 있는 앱은 이미 300만 회 이상 다운로드됐고 전체 관련 앱들의 다운로드 수를 합하면 수천만 회에 이른다. ‘역사상 가장 강력한 AI 얼굴 변화 소프트웨어 공식 출시! 기술적인 문턱이 크게 낮아졌다’는 광고까지 등장한다. IT 관련 매체에선 1분 이내 분량의 얼굴 변환 영상을 만드는 데 중국 돈 30위안(약 5500원)만 있으면 가능하다고 전했다. 컴퓨터 성능과 샘플 학습(딥러닝)에 대한 요구 조건이 낮아졌고 얼굴에서 전신 및 다양한 동작으로 발전해 갈수록 사실적이 되고 있다고도 지적했다.

단 AI 피싱은 영상·음성 변환뿐 아니라 피해자와의 관계, 근황, 소셜미디어 계정 정보까지 알아내 접근해야 하는 만큼 불특정 다수를 상대로 한 보이스피싱처럼 쉽게 퍼지긴 어려워 보인다. 그러나 얼굴과 목소리를 만드는 기술이 고도화하면 할수록 다양한 사기 범죄로 진화할 소지가 크다.

중국 사이버공간관리국은 이번 사태 이후 AI 변환 기술 프로그램이나 앱을 다운받거나 사용할 경우 매회 개인 인증을 거치는 안전장치를 적용하기로 했다. 사용 기록을 데이터베이스화해 문제가 발생할 경우 추적할 수 있는 시스템이다. AI 기술이 사용된 영상은 반드시 구분되는 표기를 하도록 의무화하고 개인 정보 유출 문제에 대한 처벌도 강화된다.

주페이다(朱飛達) 싱가포르 컴퓨터정보시스템학과 부교수는 “AI 콘텐트를 만드는 주체는 여전히 개인이며 그 생성 출처를 파악하는 게 관건”이라며 “중국의 사이버 공간에 대한 관리 감독이 더 엄격해질 것”이라고 전망했다.

ADVERTISEMENT
ADVERTISEMENT