ADVERTISEMENT

AI로 감쪽같이 합성…실제와 똑같은 가짜에 눈 뜨고도 당한다 [해킹의 진화, AI가 당신을 노린다]

중앙선데이

입력

업데이트

지면보기

848호 10면

SPECIAL REPORT

“인공지능(AI)이 이전에 경험한 무엇과도 다른 방식으로 인류를 해킹할 것이다.”

지난해 6월 미국 샌프란시스코에서 열린 세계 최대 보안 컨퍼런스 ‘RSA컨퍼런스 2022’에서 암호학자이자 보안 기술 전문가인 브루스 슈나이어는 AI해커의 등장을 예고했다. 기조연설에 나선 그는 “AI들은 전례 없는 속도, 규모, 범위로 모든 종류의 사회, 경제, 정치 시스템에서 취약점을 발견할 것이다”며 “이런 상상은 공상 과학소설의 영역이 아니다”라고 말했다.

일반인도 손쉽게 어플로 동영상 합성

그로부터 1년 뒤인 지난달 6일 러시아 국경 지역에서 푸틴 대통령의 계엄령 선포 연설이 방송돼 전세계가 혼란에 빠졌다. AI를 통한 해킹이었다. 해커들이 생성 AI 기반의 딥페이크 기술로 푸틴 대통령의 얼굴과 목소리를 합성해 영상을 만들고 TV 채널을 해킹해 방영한 것이다. 러시아 TV와 라디오 긴급 방송에서는 마치 푸틴 대통령이 대국민 연설을 하는 듯한 목소리가 흘러나왔고, 일부 지역의 TV에서는 딥페이크로 만든 영상도 함께 퍼졌다.  크렘린궁은 이날 즉시 러시아 국영 타스통신 등을 통해 “푸틴 대통령이 연설한 적이 없으며 여러 네트워크에서 나온 해킹 방송은 모두 삭제됐다”고 전했지만 인근 지역은 한동안 전쟁에 대한 공포로 마비됐다.

그래픽=남미가 기자 nam.miga@joongang.co.kr

그래픽=남미가 기자 nam.miga@joongang.co.kr

세계 각지에서 AI를 이용한 새로운 방식의 ‘AI 피싱’ 사기가 횡행하고 있다. 딥보이스, 딥페이크 등 AI 기술에 기반해 얼굴과 음성을 사기 피해자의 지인으로 변조한 뒤 상대방을 속여 돈을 가로채는 수법이다. 지난 4월 20일 오전 11시 40분, 중국 푸저우(福州)시의 한 기업 대표 궈(郭)모씨는 가깝게 지내던 지인으로부터 위챗(중국식 카카오톡) 영상 통화 요청을 받았다. 전화를 건 지인은 “공공 입찰에 대한 보증금을 지불해야한다”며 430만 위안(약 8억원)을 송금을 요구했다. 궈씨는 영상 통화를 한 뒤 별다른 의심 없이 돈을 이체했다. 궈씨는 지인에게 송금 사실을 알리기 위해 일반 전화를 건 후에야 자신이 사기범에게 보이스 피싱을 당했다는 사실을 알아챘다. 2021년 아랍에미리트의 한 은행은 AI로 대기업 임원의 목소리를 흉내내 420억원 이체를 요구하는 사기에 당했고, 지난 3월 캐나다에서는 할머니에게 전화를 걸어 손자 목소리를 흉내내 300만원을 편취한 일도 벌어졌다.

관련기사

최경진 가천대 법학과 교수(인공지능·빅데이터 정책연구센터장)는 “생성 AI가 새로운 방식의 해킹에 활용될 가능성이 매우 높아졌다”며 “사람 목소리도 만들어내고 영상도 만들어내는 것이 어렵지 않아 금융사기 등 피싱 범죄에 악용될 수 있다”고 전했다. 실제 시중에 나와 있는 몇몇 앱을 이용하면 일반인도 터치 한 번으로 특정 동영상에 등장하는 인물의 얼굴에 자신이 원하는 얼굴을 합성하는 것이 가능하다. 합성하고 싶은 영상을 선택한 후, 얼굴 사진을 업로드한 뒤 제작 버튼만 누르면 곧바로 딥페이크 영상이 제작된다. 관련 앱을 사용해본 대학생 이원호(26·수원)씨는 “처음에는 쉽게 얼굴이 합성돼 신기해서 몇 번 해봤는데 언젠가부터는 섬뜩하다는 생각이 들더라”며 “일반 어플이라 조금 부자연스러운데 전문적인 기술로 사용하면 정말 실제와 구분하지 못할 것 같다”고 말했다.

아직 국내에서는 딥페이크 등을 이용한 피싱 피해 사례는 알려진 것이 없다. 하지만 전문가들은 항시 발생 가능한 유형의 범죄인만큼 대비책을 준비해야 한다고 지적한다. 염흥열 순천향대 정보보호학과 교수는 “딥페이크, 딥보이스로 지인의 모습이나 목소리를 흉내내 상대방을 속이고자 하면 대부분의 시민들이 눈뜨고 코 베일 수 밖에 없다”며 “검사 사칭 등 일반적 보이스 피싱이 대중들에게 각인 된 것처럼 딥페이크 등 AI 피싱에 대한 인식 제고가 필수적이다”고 전했다. 염 교수는 “생성 AI가 만들어낸 동영상을 정확하게 탐지하는 기술은 아직 연구 개발 단계”라며 “궁극적으로는 개인 휴대전화에도 이를 감지 할 수 있는 장치를 마련해야 할 것”이라고 덧붙였다. 최경진 교수 또한 “가장 먼저 해야 할 것은 시민들이 ‘AI 리터러시’를 강화할 수 있도록 교육하고 홍보하는 것”이라고 전했다.

생성 AI를 이용한 새로운 해킹도 문제지만 챗GPT 등의 오픈 AI가 활성화 되면서 해킹 시도의 문턱이 낮아지고 있다는 것도 우려스러운 점이다. 최경진 교수는 “해킹을 하기 위해 가장 중요한 부분은 보안의 취약점을 찾아내는 것인데 챗GPT와 같은 AI는 계속적이고 자동적으로 취약점을 두드려 볼 수 있다”며 “고도화된 해킹 프로그램을 스스로 만들지 못하는 일반인도 조금만 공부하면 챗GPT를 활용해 쉽게 악성코드 등을 만들어내 범죄에 악용할 수 있을 것”이라고 우려했다. 민간·공공 기관 등에서 챗GPT와 같은 오픈 AI를 활용해 업무 효율 향상을 꾀하고 있지만 AI가 막대한 양의 개인·기업의 기밀 정보를 수집하고 이용할 수 있다는 점을 간과해서는 안된다.

랜섬웨어 피해 90%가 중소기업

그래픽=이정권 기자 gaga@joongang.co.kr

그래픽=이정권 기자 gaga@joongang.co.kr

글로벌 보안기업 체크포인트가 발간한 ‘2023년 시큐리티 보고서’에 따르면, 챗GPT를 이용해 이용자의 스마트폰에 저장된 PDF 파일을 빼내거나 파일전송시스템 권한을 빼앗는 악성코드를 제작하는 일은 이미 벌어지고 있다. 또한 챗GPT로 훔친 계좌나 악성코드 등 불법물 거래에 악용할 수 있는 다크웹 플랫폼을 만든 사례도 있다는 게 체크포인트의 지적이다. 우리나라에서도 AI를 등에 업은 해킹 피해가 점점 증가하는 추세이다. 지난해 한국인터넷진흥원에 접수된 해킹 침해 신고는 1045건으로 전년 640건 대비 1.6배 가량 증가했다. ‘랜섬웨어’(사용자의 컴퓨터를 장악하거나 데이터를 암호화한 다음 정상적인 작동을 위한 대가로 금품을 요구하는 유형의 컴퓨터 바이러스)도 2019년 39건이던 것이 2022년 303건으로 3년새 9배나 증가했다.

눈여겨 볼 점은 랜섬웨어 피해의 90%가량이 중소기업에 집중돼있다는 것이다. 상대적으로 대응 체계가 미흡한 중소기업이 해커들의 먹잇감이 되고 있다. AI를 활용한 해킹 기법이 널리 퍼지면서 수는 많지만 규모가 작아 기존 해커들이 크게 관심을 갖지 않았던 중소기업까지 목표가 되는 것이다. 권헌영 고려대학교 정보보호대학원 교수는 “중소기업의 경우 대기업과 다르게 해킹에 대응할만한 첨단 시스템을 관리하기 쉽지 않다 보니 공격에 취약할 수밖에 없다”며 “고급 해킹 기술이 아닌 GPT를 이용한 초보 해커의 장난식 찔러 보기 해킹에도 당할 수 있다”고 우려했다.

실제 2년 전 해커의 랜섬웨어 공격으로 2억원 가량의 비트코인을 요구받은 중소 무역업체의 김석진(49·가명) 대표는 “주요 자료들을 백업해둬 큰 피해는 보지 않았지만 당시에는 눈앞이 컴컴해지는 듯했다”며 “해당 사건 이후로 외부 전문 업체에 보안을 맡기고 있다”고 전했다. 김 대표는 다행히 피해를 막을 수 있었다. 하지만 지난해 7월 일제히 해킹 공격을 받은 인천과 강원, 대전 등 전국 30여개 지역의 택시 호출 시스템 운영업체는 외국인으로 추정되는 해커에게 1억원 상당의 비트코인을 지급한 것으로 알려졌다.

업계에서는 중소기업들을 위한 지원 강화가 시급하다는 목소리가 나온다. 한국인터넷진흥원의 관계자는 “중소기업에 보안 조치를 위한 전담 인력을 두는 것은 현실적으로 어려운 일”이라며 “방화벽이나 망 분리 솔루션 등 보안 장비를 도입할 수 있는 인력과 예산을 지원하는 것이 하나의 방법이 될 것”이라고 전했다.

권헌영 교수는 “대기업 1차 벤더 등 협력업체들이 해킹 당하면 국가핵심 기술이 해외로 유출될 수도 있다”며 “정부가 서비스를 바우처 형식으로 제공해 중소기업의 핵심 정보를 전문 클라우드 업체로 이관하는 시스템 전환을 생각해볼 수 있을 것”이라고 말했다. 다만 최경진 교수는 “클라우드라고 무조건 안전한건 아니다보니 정부가 직접 나서 최소한의 보안 매뉴얼을 갖춰주는 것이 필요하다”며 “홈페이지를 만든 뒤 관리자 비밀번호를 바꾸는 것 등 기본적인 사안만 지켜도 간단한 기술로 해킹당할 가능성은 확연히 줄어들 것”이라고 주장했다.

전문가들은 궁극적으로 미래 AI로 인한 해킹 피해를 최소화하기위해 개인정보보호, AI사용 매뉴얼 등에 관한 청사진을 빠른 시일 내에 마련해야 한다고 조언한다. 염흥열 교수는 “유럽연합(EU)에서는 이미 AI와 관련된 법을 제정하고 있다”며 “우리 나라도 오픈 AI가 응답할 수 있는 개인정보의 범위를 정하는 것을 시작으로 악성코드 생성 등 AI를 부정적으로 이용할 수 있는 부분들에 대한 규제 논의를 진행해야 한다”고 말했다. 반면 포괄적인 규제는 또다른 부작용을 발생시킬 수 있기에 신중해야한다는 의견도 나왔다. 최경진 교수는 “우리나라만 AI 발전을 막으면 외국과의 경쟁에서 밀려날 수 있다”며 “법을 제정하기에 앞서 자율 규제를 유도하고, 꼭 법이 필요하다면 원 포인트 타겟 규제가 필요하다”고 제언했다.

ADVERTISEMENT
ADVERTISEMENT