ADVERTISEMENT
오피니언 분수대

네이버라는 신

중앙일보

입력

업데이트

안혜리 기자 중앙일보 논설위원

안혜리 라이프스타일 데스크

안혜리 라이프스타일 데스크

안혜리 라이프스타일 데스크

페이스북 얘기부터 좀 해야겠다. 글로벌 금융위기 당시 월가의 핵심 골드먼삭스를 떠나 실리콘밸리의 중추 페이스북에 들어간 버클리 박사 출신 안토니오 가르시아 마르티네즈가 쓴 일종의 미국 IT업계 내부 고발 책인 『카오스 멍키』에 페이스북 신입교육 장면이 나온다. 강사로 나선 제품 담당 부사장의 첫 질문은 "페이스북이 뭘까"였다. 우리가 아는 "소셜네트워크서비스(SNS)"가 답일까. 그럴 리가. 정답은 "내가 읽어야 할 걸 매일 배달해주는 나만의 신문"이었다. 페이스북은 물론 직접 뉴스 콘텐트를 생산하지 않는다. 친구(페친)가 뉴스를 포스팅하고 댓글을 남기고 공유할 뿐이다. 하지만 페이스북은 '은밀한 알고리즘'을 통해 누구에게 어떤 콘텐트를 전달할지 결정함으로써 과거 그 어떤 전통적 언론매체도 못했던 큰 영향력을 행사한다.

혹자는 페이스북이 단지 과거 신문이나 TV 뉴스의 역할을 훨씬 편한 방식으로 대신하는 거라고 생각할 수도 있다. 하지만 실상은 그렇지 않다. 어떤 신문을 선택하고 그 중 어떤 기사를 읽을 것인가는 투명하게 공개된 과정을 거치지만  페이스북 게시물은 설령 그 속에 어떤 의도가 감춰져 내게 배달되더라도 도무지 알 길이 없다. 페이스북 내부자 말고는 알고리즘의 작동방식을 알 수 없기 때문이다. 그저 페이스북이 내가 필요로 하는 최적의 정보를 적시에 전해준다는 선의를 믿는 수밖에 없다. 마치 신의 뜻을 모르니 그저 신의 장난같은 온갖 역경을 선의로 받아들일 수밖에 없는 것처럼.

하지만 정말 그럴까. 역시 월가를 거쳐 IT업계에 종사했던 하버드대 수학박사 출신 캐시 오닐의 『대량살상 수학무기』에 페이스북의 섬뜩한 실험 얘기가 등장한다. 2010년 미국 상하원 선거 당시 페이스북이 6100만 유권자에게 '난 투표했다'라는 메시지를 지속적으로 보냈더니 34만 명의 유권자를 투표소로 더 불러낼 수 있었다. 2012년 미 대선 당시엔 정치적 성향이 강한 200만 명을 선정해(물론 당사자는 그 사실을 모른다) 정치 뉴스를 지속적으로 노출했더니 투표 참여율이 비 실험대상자에 비해 3%포인트나 더 높았다. 페이스북이 마음만 먹으면 알고리즘 조작으로 특정 정당이나 대통령까지 바꿔놓을 수도 있다는 얘기다. 정치와 무관한 실험은 더 오싹하다. 한 그룹엔 긍정, 다른 그룹엔 부정적 게시물을 더 많이 노출시켰더니 부정적 게시물을 받은 사람은 자신 역시 부정적 게시물을 더 많이 올렸다. 본인에게 묻지도 않고 동의한 바도 없는데 페이스북이 간단한 알고리즘 조작으로 사람 감정까지 변화시킨 셈이다. 그나마 이 정도가 페이스북이 직접 공개한 실험이다. 영업비밀이라며 외부에 공개하지 않는 수많은 실험은 사용자를 모르모트 삼아 지금도 진행중이다.

검색은 어떨까. 뉴스를 내 눈 앞까지 배달해주는 SNS와 달리 내가 직접 찾는 행위라 중립적이라고들 믿는다. 하지만 이 역시 알고리즘 조작을 통해 정치적 성향까지 바꿔놓을 수 있다는 점에서 구글도 페이스북과 크게 다르지 않다. 실제로 미국의 행동연구 및 기술연구소가 부동층 유권자에게 선거 정보를 찾도록 요구한 후 이들에게 특정 정당에 우호적인 구글 검색 결과를 보여줬더니 무려 20%가 표심을 바꿨다는 실험 결과도 있다. 검색 엔진은 단지 검색업체에 유용한 돈벌이 수단일 뿐만 아니라 정치적 영향력까지 확보하고 있다.

자, 이제 네이버 차례다. 이해진 네이버 창업자는 10월 30일 국감에서 "네이버는 뉴스를 생산하지 않기에 언론이 아니다"라며 최근 논란이 된 뉴스배치조작 대응책으로 인공지능(AI)을 활용한 알고리즘 편집 비중을 늘려가겠다고 했다. 문제해결의 핵심은 사람 손을 떼는 게 아니라 불투명하고 비공개적인 알고리즘을 투명하게 공개하는 것이다. 그렇지 않다면 우리는 그 뜻을 알지 못하기에 경외하고 두려워할 수밖에 없는 네이버 신(神) 아래서 계속 살아갈 수밖에 없지 않겠나.