ADVERTISEMENT

"선거 망치는 딥페이크 잡자"…AI필터로 거르고 워터마크 넣는다 [팩플]

중앙일보

입력

기술·플랫폼 기업들이 딥페이크(AI 기술을 활용해 인물 등을 합성, 조작한 이미지‧영상)가 선거에 미치는 영향을 최소화하기 위한 본격 대응에 나섰다.

사진 셔터스톡

사진 셔터스톡

무슨 일이야

한국인터넷기업협회(인기협)는 구글코리아, 네이버, 메타, SK커뮤니케이션즈, 카카오, 바이트댄스(틱톡) 등 회원사들이 딥페이크에 대응하는 자율협의체를 구성했다고 26일 밝혔다. 오는 4월로 다가온 제22대 국회의원‧재보궐선거의 공정성·신뢰성을 제고하기 위해서다. 이들은 선거에 영향을 미치기 위해 악의적으로 제작·편집한 딥페이크 영상·음성·이미지에 대한 대응방안을 조만간 발표한다.

앞서 지난 23일 방송통신위원회는 국내외 플랫폼 사업자들과 딥페이크 허위 정보 대응 관련 자율규제 강화를 위한 회의를 열었다. 네이버, 카카오, 구글, 메타 등 플랫폼 기업 관계자들이 참석했다. 이날 회의는 딥페이크 기술 관련 사회적 문제가 대두되면서 기업 차원의 피해 예방 대책을 논의하기 위해 마련됐다. 방통위는 정부 규제가 아닌 사업자 자율규제로 딥페이크에 대응할 방침이다. 방통위 관계자는 “앞으로 계속 사업자들과 회의하면서 기술개발 현황, 정책 변경 상황 등을 확인할 것”이라고 전했다.

이게 왜 중요해

AI가 ‘선거의 해’를 뒤흔들 수 있다. 올해는 한국 포함 전 세계 76개국에서 대선, 총선 등 각종 선거가 치러지는 해다. 생성 AI 발전으로 AI 합성, 조작 기술을 다루는 게 쉬워지면서, 이를 이용해 선거를 교란시키는 악성 콘텐트가 다량 생산되고 있다. 세계경제포럼(WEF‧다보스포럼)이 펴낸 ‘글로벌 리스크 리포트 2024’에 따르면 ‘AI로 생성한 가짜 정보’는 기후위기에 이어 인류의 위협 요인으로 지목됐다.

기업들은 뭐해

딥페이크에 대한 우려가 커지면서 국내외 플랫폼 기업과 AI 기업들은 잇따라 대책을 내놓고 있다.
‧국내는: 네이버는 이용자가 딥페이크 관련 키워드를 검색할 경우 경고 문구를 노출할 예정이다. 이미 카페, 블로그에 이미지와 같은 콘텐트를 업로드할 때도 허위 정보를 포함한 딥페이크 영상에 대한 주의 문구를 이달부터 노출하고 있다. 거대언어모델(LLM)인 하이퍼클로바X 기반 챗봇 클로바X에도 안전 조치를 취했다. 클로바X에 얼굴 합성 등을 요청하면 답변을 제공하지 않는 방식이다. 네이버 관계자는 “AI 콘텐트 필터링 기술인 ‘그린아이’로 유해 딥페이크를 실시간 차단하고 있다”고 했다.
카카오는 이미지 생성 AI 모델인 칼로와 관련해 가시적 워터마크를 표시하고 있다. 카카오 관계자는 “칼로 이미지에 비가시적 워터마크를 넣는 연구를 하고 있으며, 실제 적용도 검토하고 있다”고 설명했다.

‧해외는: 오픈AI, 구글 등 20개 빅테크 기업은 지난 16일(현지시간) 독일 뮌헨안보회의(MSC)에서 딥페이크 콘텐트에 AI가 생성했다는 라벨을 붙이기로 한 내용의 합의문을 발표했다. 오픈AI는 이미지 생성 AI 달리가 만든 이미지에 C2PA(콘텐트 출처 및 진위 확인을 위한 연합) 워터마크를 부착한다. 구글 역시 자사 이미지 생성AI에 워터마크 기술 ‘신스ID’를 적용했다. 페이스북‧인스타그램‧스레드를 운영하는 메타는 자체 AI 도구인 메타 AI를 활용해 만든 이미지에 ‘이매진드 위드 AI’라는 라벨을 붙여왔다. 메타는 이 방식을 외부 AI 도구로 만든 콘텐트에도 적용하겠다는  입장이다.

박경민 기자

박경민 기자

앞으로는

기업들의 자정 노력에도 불구하고 딥페이크 관련 규제가 확산될 수 있다. 빅테크들의 자정 노력에 한계가 있다는 비판이 나오고 있어서다. 뮌헨 합의문에서도 딥페이크 콘텐트를 삭제해야 한다는 내용은 들어가지 않았다.

유럽연합(EU) 회원국들은 지난 2일 AI가 콘텐트를 생성했다는 워터마크를 강제하는 ‘AI법’을 만장일치로 통과시켰다. 미국에선 연방거래위원회(FTC)가 AI를 이용한 특정 인물이나 기업‧기관을 사칭하는 행위를 처벌할 것이라고 지난 15일 밝혔다. 한국은 지난해 12월 김승수 국민의힘 의원이 AI로 정보 제작 시 워터마크 삽입 의무화를 골자로 한 정보통신망법 개정안을 발의했다.

김명주 서울여대 정보보호학과 교수(바른AI연구센터장)는 “AI로 발생하는 진짜와 가짜 사이 혼돈을 막기 위해 할 수 있는 최소한의 기술적 조치가 워터마크”라며 “워터마크를 회피할 수 있는 기술도 있기에 완전히 막을 방법은 없지만, 만드는 이들에게 심리적으로 부담을 주는 효과는 있을 것이라고 본다”고 말했다.