ADVERTISEMENT

하루 70만 네이버뉴스 댓글…'한남·한녀' 비하 바로잡는다 [팩플]

중앙일보

입력

업데이트

댓글은 양날의 검이다. 기사에 대한 생각을 나누게 해주는 ‘공론의 장’인 한편 ‘악플’을 양산해 큰 피해를 주기도 한다. 그럼에도 댓글 서비스가 유지되는 것은 소통하고자 하는 사회적 수요를 맞추고 공론의 장이라는 순기능을 해줄 것이란 기대가 반영된 결과다.

네이버 뉴스 댓글 서비스는 2004년 시작됐다. 요즘은 하루 평균 70만개 안팎의 댓글이 달린다. 네이버는 2012년 욕설 자동 치환을 시작으로, 인공지능(AI)을 활용해 댓글 창을 청소해왔다. 2019년에는 AI가 폭력적 표현을 탐지·차단해주는 ‘클린봇’ 1.0을 선보였다. 2.5 버전까지 나온 클린봇은 적용 범위를 단순 욕설에서 선정적·폭력적·성범죄 옹호 표현까지 확장했다. 지난 2월 개최된 베이징 동계 올림픽 때부턴 비하·차별·혐오 특화 모델을 추가로 적용했다.

네이버의 기술은 댓글 창을 건전한 공론의 장 지위로 끌어올릴 수 있을까. 지난달 24일 경기도 성남시 네이버 본사에서 이규호 미디어인텔리전스 리더, 이태호 미디어인텔리전스 개발자, 임남정 그린UGC 리더를 팩플팀이 만났다. 미디어인텔리전스는 미디어 발생 데이터를 분석하고 AI를 연구해 클린봇을 만드는 조직이다. 그린UGC는 이용자 게시물 중 유해 콘텐트로부터 이용자를 보호하는 부서다.

(※ 본 기사에는 댓글 사례에 대한 이해를 돕기 위해 일부 부적절한 표현이 인용되었습니다.)

네이버 악플 차단을 담당하는 임남정 그린UGC 리더, 이규호 미디어인텔리전스 리더, 이태호 미디어인텔리전스 개발자.(왼쪽부터) [사진 네이버]

네이버 악플 차단을 담당하는 임남정 그린UGC 리더, 이규호 미디어인텔리전스 리더, 이태호 미디어인텔리전스 개발자.(왼쪽부터) [사진 네이버]

비하·차별·혐오 발언 AI가 거른다

올해 베이징 동계올림픽부터 비하·차별·혐오 탐지 AI 모델을 적용했다. 이전과 뭐가 달라졌나.
이규호 “네이버 서비스를 쓰는 이용자에게 비하·차별·혐오 표현은 불쾌감을 준다. 서비스 만족도를 떨어뜨리고 상처를 줄 수도 있다. 그래서 이를 잘 탐지하는 모델을 개발하게 됐다.”
어떤 차이가 있나.  
이규호 “기존 클린봇은 범용 모델이다. 욕설은 잘 잡지만 다른 특화된 세부 표현에서는 부족한 부분이 있었다. 목표물을 정확하게 조준해 잡는 모델을 추가하는 중이다. 지난해 성적 표현 특화 모델을 추가했고 이번에는 비하·차별·혐오 탐지 모델을 적용했다. ”
예를 들자면
이규호 “예컨대 ‘겨땀 생각만 해도 역겹다’처럼 대놓고 욕은 안 하지만 상대방을 깔보고 비하하는 표현을 잘 잡는다. 또 ‘한남,한녀' 같은 성차별적 표현이나 지역 차별적 발언을 기존 클린봇보다 잘 걸러낸다.”
팩플레터 207호.

팩플레터 207호.

베이징 올림픽 악플 검출량 140% 증가

어느 정도 성능이 개선됐나.
임남정 “해당 모델 적용 전인 지난해 열린 도쿄 올림픽 때와 이번 베이징 동계 올림픽(선수톡·응원톡)을 비교하니 악플 검출량은 140% 증가했다. 반면 이용자 불편 신고건수는 37.5% 줄었다. 악플에 덜 노출됐다는 의미다. 댓글은 흐름이 중요하다. 위에 욕이 있으면 밑에도 감정 섞인 댓글이 줄줄이 달린다. 특히 올림픽은 국가 대항전이라 개인 간 분쟁이 국가 간 분쟁으로 퍼질 수도 있어서 빨리 차단하는 게 중요하다. 이번 베이징 올림픽은 쇼트트랙 관련 편파판정 논란도 있어 해당 시점 악플이 평상시보다 5배 가까이 증가하는 등 이슈가 많았다.”
비하·차별·혐오 표현에 대해선 개인마다 기준 차이가 있다. 함부로 걸러내면 표현의 자유를 침해한다. AI는 어떤 기준으로 학습하나.  
이규호 “사람마다 판단 기준이 다르기 때문에 단순 규칙 기반으로 비하 표현을 나누기에는 어려움이 있었다. 이를 해결하기 위해  표현의 통계적 특성을 모델에 반영하고자 했다. 즉, 여러 사람이 태깅(tagging, 비하 여부를 구분하는 과정)에 참여하도록 해 평균적 기준이 AI 모델에 반영되게 했다. 예컨대 하루 평균 70만건의 네이버 댓글 중 비하·차별·혐오 표현으로 신고 들어온 댓글 통계를 내 활용한다는 의미다. 또 모델 예측과 일치하지 않는 데이터를 재검토하는 과정도 반복해 성능을 고도화했다.”
네이버 클린봇이 실제로 적용되는 모습. [사진 네이버]

네이버 클린봇이 실제로 적용되는 모습. [사진 네이버]

50개 욕설, 20만개로 변형

댓글엔 신조어도 많지 않나.
이규호 “맞다. 창과 방패의 대결이라고 할까. 신조어도 많이 생기고 새로운 의미도 많이 부여된다. 우리도 몰랐는데 어떤 커뮤니티에선 5시하고 7시가 지역 차별 의미를 지닌다. 5시는 경상도, 7시는 전라도를 의미한다. 글자만 봐선 비하·차별·혐오가 아니지만, 문맥상으론 그렇다. 이런 점들을 빠르게 모델에 반영하는 게 쉽지 않다.”
이태호 “결국엔 우리 모델이 특정 데이터를 분야와 흐름에 맞게 빨리 학습하는지가 중요하다. 이를 위해 서비스별 악플의 특징, 시간에 따라 변하는 악플의 특징을 AI 모델에 실시간으로 반영하는 플랫폼을 개발하고 있다. 토르(Thor)다. 토르에는 AI 모델이 스스로 학습이 필요한 데이터를 선별해 발전할 수 있도록 ‘액티브 러닝’ 기술을 적용 중이다.”
욕설은 AI가 잘 배우나
임남정 “욕설도 변화무쌍하기 때문에 대응이 쉽지는 않다. 아마도 네이버가 한국에서 욕설 데이터를 가장 많이 가지고 있을 것이다. 댓글 서비스 시작할 때부터 수집해왔다. 모든 욕의 시작이 되는 ‘원형 욕설’이 약 50개 정도다. 그런데 이 50개가 20만개로 변화한다. 예컨대 ‘호로’(외국인을 낮잡아 이르는 말)라는 욕은 ‘ㅎㄹㅅX’ 등으로 변화한다. 호로만 가지고도 1953개 욕이 나온다. 지금도 확장되고 있다.”
또 어려운 점이 있다면.
이태호 “일부 커뮤니티에서 꼰대라는 표현이 ‘이 분야 전문가’라는 느낌으로 통하는 걸 본 적이 있다. 그래서 무조건 저 단어는 나쁘다, 이 단어는 좋다라고 하기 어렵다. 서비스별로, 시대별로 언어의 의미가 달라진다. 그런 점이 어렵다."
네이버 클린봇 이미지. [사진 네이버]

네이버 클린봇 이미지. [사진 네이버]

"해우소보단 공론장 만들어야"

악플 탐지 기술을 계속 고도화시키는 이유는.
이태호 “'대(大)혐오 시대'라고까지 말할 정도로 갈등이 많은 시대다. 어떻게 하면 갈등이 줄어들 수 있을지 기여하는 방법을 찾고 있다. 악플 탐지 기술을 고도화하는 게 그중 하나다.”
임남정 “악플은 어디에나 존재한다. 네이버만의 문제가 아니다. 네이버에서 댓글을 중지한다고 문제가 해결되는 게 아니다. 댓글 창을 없애는 게 능사가 아니라는 얘기다. 우리는 기술을 통해 이런 공간이 사람들이 더 좋은 글을 적고, 쾌적하게 이용할 수 있도록 노력하고 있다. 댓글 자체도 훌륭한 콘텐트일 수 있다. 그렇게 되려면 악플을 잘 걸러야 한다.”

뉴스 그 이상 The JoongAng에서 팩플을 만나보세요

네이버에 달리는 오만가지 종류 악플 어떻게 차단하는지 궁금하다면? 위 기사에 담지 못한 더 깊은 이야기는 중앙일보 팩플 홈페이지에서 인터뷰 풀 버전으로 보실 수 있습니다. (기사 원문:https://www.joongang.co.kr/article/25054089)

팩플은 ‘비즈니스의 미래(Future of Business)’를 취재하는 중앙일보의 테크·비즈니스 뉴스 브랜드입니다. 팩플 기자들이 만드는 뉴스레터를 구독하시면 매주 화·목·금 잘나가는 기업들의 최신 소식과 이슈 해설을 이메일로 배송해 드립니다. 비즈니스의 미래가 궁금할 땐, 팩플을 구독하세요!ㅤ
▶구독신청은 여기서 → https://www.joongang.co.kr/etc/factpl_newsletter