ADVERTISEMENT

"여성 10만명 벗겼다" 사진 주면 누드 만드는 텔레그램방

중앙일보

입력

업데이트

텔레그램 대화방에서 여성의 사진을 나체 사진으로 바꿔주는 딥페이크봇이 작동하는 방식. [사진 센시티 홈페이지]

텔레그램 대화방에서 여성의 사진을 나체 사진으로 바꿔주는 딥페이크봇이 작동하는 방식. [사진 센시티 홈페이지]

사진 속 여성을 가짜 나체사진으로 바꿔주는 텔레그램 대화방이 운영돼 지난 1년 동안 10만명이 넘는 여성들이 피해를 당한 것으로 추정된다는 영국 민간업체의 분석 결과가 나왔다. 인공지능(AI) 기술을 이용한 일종의 '딥페이크'(Deep Fake) 기술이 실존하는 인물들의 피해 사례로 이어지고 있다는 지적이다.

영국 공영방송 BBC는 20일(현지시간) 민간 정보업체 센시티가 최근 이러한 내용을 담은 보고서를 발간했다고 전했다. 보고서에 따르면 대화방은 텔레그램에서 운영되며, 해당 방에서 사람들이 여성의 사진을 전달하면 '딥페이크 봇'(딥페이크를 만드는 인공지능)이 옷을 삭제해주는 방식으로 작동한다.

딥페이크는 인물의 사진이나 영상을 인공지능을 통해 다른 인물이나 배경과 합성해주는 기술이다. 존재하지 않는 사진이나 영상을 만들 수 있다는 점에서 대선을 앞둔 미국에선 정치인들의 딥페이크 영상에 촉각을 곤두세우고 있다.

프랑스 유튜브 채널 '프렌치 페이커'의 딥페이크 영상에서 가짜 목소리를 내는 도널드 트럼프 대통령 [사진 '프렌치 페이커' 캡처]

프랑스 유튜브 채널 '프렌치 페이커'의 딥페이크 영상에서 가짜 목소리를 내는 도널드 트럼프 대통령 [사진 '프렌치 페이커' 캡처]

보고서에 따르면 텔레그램의 해당 대화방은 사진을 받고 불과 수 분 만에 나체 사진을 만들어주고, 비용도 들지 않는다. 누구나 딥페이크 사진을 만들 수 있을 정도로 '접근성'이 높은 셈이다. 센시티는 지난해 7월부터 1년 동안 10만4852명에 이르는 여성이 이 대화방의 딥페이크 서비스에 사진이 유포되는 피해를 본 것으로 추산했다.

조지오 파트리니센시티 대표는 "사진이 노출된 사회관계망서비스(SNS) 계정만 있다면 충분히 공격 대상이 될 수 있다"고 경고했다.

오원석 기자 oh.wonseok@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT