ADVERTISEMENT

[트랜D]인간의 '편견', AI로 잡아낼 수 있다.

중앙일보

입력

업데이트

트랜D

트랜D’ 외 더 많은 상품도 함께 구독해보세요.

도 함께 구독하시겠어요?

인공지능의 능력을 맹신해선 안 된다는 경고가 이어지고 있다. 특히 인간의 편견이 기계가 학습하는 데이터에 스며들어, 인간이 하는 것과 같은 오판을 기계도 그대로 내보낼 수 있다는 주장이 지속해서 나오고 있다. 기계는 결국 사람의 잣대로 나뉜 카테고리를 있는 그대로 학습하기 때문에, 마냥 객관적일 수만은 없다는 것이다.

'유재연의 인사이드 트랜D'

하지만 기계의 눈은 사람의 눈과 다르다. 오히려 기계가 사람의 시선을 역으로 판단해 낼 수도 있다. 사람으로선 ‘둘이 뭐가 달라?’라는 생각이 들 법한 카테고리 사이에서, 기계는 미묘한 차이를 잡아낼 수 있다. 예를 들어 사람은 생각보다 어린아이·동물이 흩뿌린 그림과 전문 화가의 추상화를 잘 구분해내지 못한다. 하지만 한 연구에서는 딥러닝 알고리즘이 사람보다 높은 확률로 둘을 구분해 냈다고 밝혔다. 그뿐만 아니라 연구진은 사람들이 그림을 구별할 때 스스로 생각하는 것보다 훨씬 더 작품의 의도를 잘 파악하고 있다는 점 또한 기계적으로 도출해 냈다.

그림1. 왼쪽은 모두 화가의 작품이고, 오른쪽은 유치원생(위)과 코끼리(아래)의 페인팅이다. [Shamir et al.(2016)]

그림1. 왼쪽은 모두 화가의 작품이고, 오른쪽은 유치원생(위)과 코끼리(아래)의 페인팅이다. [Shamir et al.(2016)]

AI로 밝혀내는 ‘사람의 편견’

사람 자신도 몰랐던 ‘치우친 생각’을 기계의 눈을 통해 확인할 수 있다는 주장 또한 AI 바이어스 연구의 한쪽에서 지속해서 이어지고 있다. 지난 7월 미국 코넬대 연구진은, 인간의 의사결정 과정에서 알고리즘이 차별 탐지자로서의 역할을 해낼 수 있을 것이라는 내용의 논문을 냈다(Kleinberg et al., 2020). 예를 들어 기업에서의 과거 채용 기록을 기반으로 모델을 만들면, 암묵적으로 자행 됐던 차별이 통계적으로 드러나게 되고, 따라서 이 알고리즘을 채용 심사 과정에 ‘넛지’를 주듯 활용할 수 있다고 연구진은 주장했다. 기계를 활용함으로써 단순히 차별의 발생을 탐지만 하는 데 그치지 않고 예방까지 해낼 것이라는 전망도 함께 제시됐다.

필자 또한 2017년 석사 학위 논문을 통해 미디어 사진이 내포할 수 있는 편향을 검토한 바 있다. 유럽에서 발생한 테러리즘과 시리아에서 벌어진 내전에 대해 서구 통신사인 로이터와 아랍계 통신사인 알자지라가 실어나른 사진들을 살펴봤다. 몇만 장의 데이터를 다루기 위해 인공지능의 감정 분석과 객체 탐지, 그리고 각 요소의 사진 속 위치를 총괄적으로 분석했다. 기계 분석 결과 시리아 사태에 대해 중동 미디어는 좀 더 구체적인 상황 묘사 및 팩트 전달에 가까운 사물을 사진에 배치했지만, 서구는 인물의 슬픔이 극대화된 모습을 이미지 중앙부에 배치했다. 기계의 눈으로 볼 때 서구 미디어가 그리는 시리아 내전은 다른 군에 비해 훨씬 거리감이 느껴지고, 미학적 요소가 강조됐다. 마치〈로이터 사진전〉에 걸릴 법한 묘사가 돋보였다. 탐지 결과를 바탕으로 논문에서는 국내 미디어의 서구 통신사 중심 사용 행태를 다시금 살펴볼 필요가 있다고 주장했다.

AI를 잘 써먹으려면

위 연구들의 이론적 기반이 되는 가정은 결국 ‘기계가 사람을 도울 수 있다’는 것에 있다. 협업적 도구로서 AI가 사람에게 ‘편 가르면 안 된다’고 외쳐주고, 이를 토대로 사람은 더 나은 선택을 해내는 선순환 구조를 전제하는 것이다.

하지만 알고리즘은 새로운 입력 데이터가 발생함에 따라 지속해서 변화한다. 사람의 편견이 더 심화하면 그것이 옳은 방향인 것으로 읽고 알람을 잘못 줄 수도 있다. 차별이 조금씩 완화되는 과정을 겪으며 도리어 엉뚱한 데에서 트집을 잡는 AI 모델이 생성될 수도 있다. 마치 사람 사는 사회에서도 ‘이 정도 소소한 차별은 눈 감고 넘어가도 된다’라거나, ‘격차를 줄이다가 강자들이 된서리를 맞았다’는 말이 툭툭 터져 나오듯 말이다. 사람을 닮아가는 인공지능이니 사람처럼 결정을 내리게 될 수도 있다.

따라서 사람들의 기계에 대한 철저한 검증이 지속해서 이어져야 한다. 역치를 조정하고, 잘못된 판단을 감시하며, 기계를 지켜봐야 한다. 미국의 일부 주에서는 성별이나 인종에 따른 바이어스가 발생하지 않도록 법 체제를 강화하고 있다. 사람을 구분하는 데 있어 머리카락의 모양새를 탐지하지 못하게 하는 ‘AI 채용 봇’ 법안이 대표적 사례일 것이다. 다양성을 기계적 차별의 도구로 삼지 못하게 하는 사회적 억제가, AI와 사람의 ‘정의를 위한 협업’에 역할을 해낼 것으로 기대한다.

유재연 객원기자는 중앙일보와 JTBC 기자로 일했고, 이후 서울대 융합과학기술대학원에서 박사과정을 수료했다. 이미지 빅데이터분석, 로봇저널리즘, 감성 컴퓨팅을 활용한 미디어 분석에 관심이 많다. 현재 서울대 융합과학기술대학원 연구원으로 활동하고 있다.

관련기사

ADVERTISEMENT
ADVERTISEMENT