ADVERTISEMENT
오피니언 분수대

네이버라는 신

중앙일보

입력

지면보기

종합 31면

안혜리 기자 중앙일보 논설위원
안혜리 라이프스타일 데스크

안혜리 라이프스타일 데스크

페이스북 얘기부터 해야겠다. 글로벌 금융위기 당시 골드만삭스를 떠나 페이스북에 들어간 내부 고발자가 쓴 『카오스 멍키』에 페이스북 신입교육 장면이 나온다. 강사의 첫 질문은 “페이스북이 뭘까.” 우리가 아는 “소셜네트워크서비스(SNS)”는 오답. 정답은 “내가 읽어야 할 걸 매일 배달해 주는 나만의 신문”이었다. 페이스북은 직접 콘텐트를 생산하지 않는다. 친구(페친)가 뉴스를 포스팅하고 댓글을 남기고 공유할 뿐이다. 하지만 ‘은밀한 알고리즘’을 통해 누구에게 어떤 콘텐트를 전달할지 결정함으로써 큰 영향력을 행사한다.

문제는 알고리즘의 작동방식을 내부자 말고는 아무도 알 수 없다는 데 있다. 그저 페이스북이 내가 필요로 하는 최적의 정보를 적시에 전해 준다는 선의를 믿는 수밖에 없다. 하지만 정말 그럴까. 역시 내부 고발자의 책인 『대량살상 수학무기』에 섬뜩한 얘기가 등장한다. 2012년 미 대선 당시 정치적 성향이 강한 200만 명을 선정해(물론 당사자는 그 사실을 모른다) 정치 뉴스를 지속적으로 노출했더니 투표 참여율이 비실험 대상자에 비해 3%포인트나 높았다. 알고리즘 조작으로 특정 정당이나 대통령까지 바꿔놓을 수도 있다는 얘기다. 정치와 무관한 실험은 더 오싹하다. 한 그룹엔 긍정, 다른 그룹엔 부정적 게시물을 더 많이 노출시켰더니 부정적 게시물을 받은 사람은 부정적 게시물을 더 많이 올렸다. 감정까지 변화시킨 셈이다.

검색 역시 알고리즘 조작을 통해 정치적 성향까지 바꿔놓을 수 있다는 점에서 구글도 크게 다르지 않다. 실제로 미국의 한 연구소가 부동층 유권자에게 선거 정보를 찾도록 요구한 후 특정 정당에 우호적인 구글 검색 결과를 보여줬더니 무려 20%가 표심을 바꿨다.

자, 이제 네이버 차례다. 이해진 네이버 창업자는 최근 “네이버는 뉴스를 생산하지 않기에 언론이 아니다”며 뉴스 배치 조작 대응책으로 인공지능(AI)을 활용한 알고리즘 편집 비중 확대 방침을 밝혔다. 문제해결의 핵심은 사람 손을 떼는 게 아니라 불투명하고 비공개적인 알고리즘을 투명하게 공개하는 것이다. 그렇지 않다면 우리는 그 뜻을 알지 못하기에 경외하고 두려워할 수밖에 없는 ‘네이버 신(神)’ 아래서 계속 살아갈 수밖에 없다.

안혜리 라이프스타일 데스크