Opinion :김병필의 인공지능 개척시대

인공지능으로 차별에 맞서는 법

중앙일보

입력 2020.06.15 00:19

지면보기

종합 25면

김병필 KAIST 기술경영학부 교수

김병필 KAIST 기술경영학부 교수

“흑인 생명도 중요하다” 캠페인이 미국을 휩쓸고 있다. 해묵은 감정이 거칠게 폭발하고 있는 모습이다. 그저 먼 나라의 이야기로 치부하기 어렵다. 우리 사회에서도 해결해야 할 여러 형태의 차별이 남아 있기 때문이다. 약간 시야를 넓혀 생각해 보자. 앞으로 한 세대가 지나면 상황이 더 나아져 있을까? 100년이 지난 후는 어떨까? 필자는 이 질문에 대한 답은 우리가 인공지능을 얼마나 공정하게 활용할 수 있는지에 달려 있다고 생각한다. 향후 적어도 몇 세대 동안은 인공지능이 사회 전체에 걸쳐 두드러지게 활용될 것이니 말이다.

중요 결정을 AI가 좌우하는 시대
미래 세대의 차별 없는 삶 위해
공정한 AI 개발이 무엇보다 중요
AI 공정성 주입 연구에 주목해야

인공지능 때문에 앞으로 우리 사회의 차별적 관행이 유지되거나, 오히려 심각해질 수 있다고 우려하는 목소리도 높다. 인공지능은 데이터를 학습해야 한다. 그런데 학습 데이터에는 인간의 오랜 편견이 반영되어 있기 마련이다. 그래서 인공지능도 인간의 차별적 행동을 배우게 된다. 인공지능이 확산되면 더 불평등한 사회가 도래할 수 있다고 걱정하는 이유이다. 하지만 꼭 그렇게 되어야 할까? 더 공정한 사회를 만들기 위해 인공지능을 활용할 수 있는 방법은 없을까?

문제를 해결하기 위한 첫걸음은 현재 어떠한 상태인지 이해하는 것이어야 한다. 인공지능은 문제가 무엇인지 밝히는데 활용될 수 있다. 인공지능이 아무리 복잡하더라도 컴퓨터 프로그램의 일종이다. 즉 데이터를 입력하면 결과 값을 출력하는 시스템이다. 그러니 어떤 데이터를 입력 받아 어떤 결과 값을 출력했는지 기록으로 남길 수 있다. 기록을 분석하면 어떠한 요소가 판단에 중요한 역할을 했는지도 찾아낼 수 있다. 그러나 사람의 판단은 그렇지 않다. 미국의 그 어떤 채용 담당자도 지원자가 백인이라서 채용했다는 기록을 남기지 않는다. 내심 그렇게 생각했더라도 말이다. 이렇게 보면 인공지능은 인간보다 더 투명하게 결정을 내린다. 그러니 인공지능을 이용하기 시작하면 어떤 문제가 있는지 찾아내기도 쉬워질 수 있다.

인공지능 6/15

인공지능 6/15

인공지능은 판단의 공정성을 높이는 역할도 할 수 있다. 인간은 무의식적으로 많은 요인에 영향을 받는다. 이스라엘 판사들의 가석방 심사 사례가 잘 알려져 있다. 연구자들이 시간대별 가석방 승인 비율 통계를 분석해 보니, 판사들은 처음 심사하는 대상자들에게는 관대한 태도를 보였지만, 쉬는 시간이 가까워지면서 점차 엄격해지는 경향을 보였다고 한다. 그런데 쉬는 시간에 간식을 먹고 돌아오면 다시 관대해졌다. 정확한 원인을 알기 어렵지만 여러 대상자를 심사하면서 점차 피로해지기 때문일 수도 있다. 그래서 ‘배고픈 판사 효과’라 부르기도 한다. 하지만 판사들은 자신이 이러한 경향을 보인다는 점을 알지 못했다. 누구나 자신이 공정하다고 생각하지만, 심리학자들이 보기에 인류는 그렇게 판단을 잘 내리는 종(種)은 아니다.

인공지능은 인간의 인지적 한계를 극복하는 데 도움이 된다. 이스라엘 판사들처럼 심사를 계속한다고 피곤해하지도 않는다. 항상 일관된 기준을 적용할 수도 있다. 인공지능은 더욱 공정한 기준을 적용하도록 발전할 여지가 크다. 우리 헌법이 명시하고 있는 것처럼 성별, 종교 또는 사회적 신분 등에 따라 차별을 하지 않도록 하는 것이다. 물론 인공지능에 공정성의 기준을 주입하는 것이 쉬운 일은 아니지만, 많은 연구가 활발히 이루어지고 있다.

앞으로 인공지능은 우리 삶에 있어 중요한 변곡점마다 중요한 역할을 하게 될 것이다. 어느 학교에 입학할지, 어느 회사에 입사할지, 승진될지, 대출은 받을 수 있을지, 은퇴 자금을 어떻게 관리할지, 어떤 병에 걸렸고, 어떻게 치료할지 등이야말로 인생에서 가장 중요한 결정이 아니던가. 앞으로 이러한 결정 하나하나마다 인공지능이 개입할 것이다. 그때마다 과연 인공지능이 공정한 판단을 내리는지 문제가 될 것이다.

우리에게는 세 가지 선택지가 있다. 첫째, 종전과 같이 인간에게 계속 결정을 맡기는 것, 둘째, 인간의 행동을 그대로 학습한 인공지능을 활용하는 것, 셋째, 공정하게 행동하도록 작성된 인공지능을 활용하는 것이다. 인공지능이 차별적으로 동작할 위험이 있다고 해서 오로지 인간에게만 모든 결정을 맡기는 것이 정답이라고는 하기 어렵다. 우리에게 주어진 과제는 과연 어떻게 보다 공정한 인공지능을 만들 것인가 하는 것이다. 공정한 인공지능을 만드는 것은 이제 우리와 다음 세대가 공정한 삶을 누릴 것인지를 결정 짓는 중요한 일이 되었다.

김병필 KAIST 기술경영학부 교수

모비온

Innovation Lab

ADVERTISEMENT