ADVERTISEMENT

'페미' 안 되고 '파시스트' 된다?…카톡 AI 말바꾸기, 편향 논란 [팩플]

중앙일보

입력

지면보기

경제 03면

카카오톡(이하 카톡)에 들어간 인공지능(AI) 기능에 일부 선택적 필터링이 적용돼 윤리적 편향 논란이 커지고 있다.

카카오톡의 AI 기능. 카카오톡 캡처

카카오톡의 AI 기능. 카카오톡 캡처

무슨 일이야

23일 카톡에 ‘게이’, ‘페미니즘’, ‘성소수자’ 등의 단어를 입력하면 AI 말투 바꾸기를 지원하지 않고 “변경할만한 내용이 없다” “바꾸기가 쉽지 않다” 며 필터링하는 것으로 나타났다. 반면 ‘병X’ 등 욕설, ‘파시스트’ 같은 단어는 필터링이 되지 않고 AI 말투 바꾸기 기능이 적용됐다.

카카오톡의 AI 말투 변경 기능이 적용된 화면. 카카오톡 캡처

카카오톡의 AI 말투 변경 기능이 적용된 화면. 카카오톡 캡처

AI 말투 변경 기능은 지난달 18일 업데이트를 통해 반영됐다. 이용자가 카톡 실험실에서 동의하면 자신이 입력한 문장을 ‘정중체’‘임금체’‘상냥체’ 등으로 AI가 바꿔서 보내주는 기능이다. ‘좋은 아침이에요’라는 문장에 로봇체를 적용하면 ‘아침. 굿’이라는 말로 바뀌는 식이다. 이 기능에 적용된 AI 모델은 카카오의 AI 자회사 카카오브레인이 개발했다.

카카오 관계자는 “필터링 기준에 편향성이나 목적성이 있지 않다”며 “응답 과정에서 할루시네이션(환각·AI의 그럴싸한 거짓말)과 같은 부정확한 결과가 나올 수 있는 경우에 한해 필터링을 한다”고 설명했다. 이어 “내부 테스트를 지속적으로 진행해 모델을 개선하고 있다”고 밝혔다.

이게 왜 중요해

카카오는 최근 카카오브레인의 오픈소스 멀티모달 AI모델인 ‘허니비’를 공개하는 등 AI 개발에 속도를 내고 있다. ‘AI 윤리’에 대해서도 지난해 ‘카카오 공동체의 책임있는 AI를 위한 가이드라인’, ‘카카오 공동체 기술윤리 보고서’ 등을 통해 강조하고 있는 상황. 카카오의 알고리즘 윤리헌장은 ‘알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다’고 규정하고 있다. 그런 가운데 새 AI서비스에서 사회적 차별 논란이 불거질 수 있게 필터링이 적용된 것.

전 세계적으로도 AI의 윤리적 사용 문제에 대한 관심은 커지고 있다. 특히 EU(유럽연합)의 AI법을 시작으로 AI 규제 움직임이 빠르게 확산하고 있다. 그만큼 안전하면서 책임감 있는 AI의 중요성이 강조되고 있다. 한국에서도 2021년 AI 챗봇 ‘이루다’의 혐오 발언 사건 이후 AI 윤리에 대한 논의가 진행 중이다. 네이버의 대화형 챗봇 ‘클로바X’는 부적절한 단어를 입력하면 ‘저는 선정적이거나 혐오스러운 요청에 대해 답변을 제공하지 않습니다’라고 답하는 식으로 대응하고 있다.

AI 윤리, 어떻게 해야 돼?

전문가들은 AI 기업이 AI모델 개발과정과 개발 이후 개선 과정에 있어 윤리적 문제를 고려해야 한다고 조언했다. 김명주 서울여대 바른AI연구센터장은 “이용자 피드백을 정확하게 받고, 기능에 반영할 수 있는 시스템을 구축하는 것이 중요하다”며 “비용이 많이 들겠지만, AI 윤리가 중요해지고 있는 시점에서 필요하다”고 말했다.

오혜연 KAIST AI연구원장은 “이같은 문제가 발생했을 때 어떻게 대응을 해야 하는지 전문성을 가지고 대처할 수 있는 조직이 갖춰져야 한다”며 “AI개발팀의 윤리적 문제 이해도를 높이며 인적 구성의 다양성을 담보하는 것도 중요하다”고 지적했다.