ADVERTISEMENT

[팩플]'이루다' 그후 반년…"루다는 관계의 불평등 해결할 AI 될 것"

중앙일보

입력

이루다는 실제 연인 간 메신저 대화 데이터 100억건을 학습한 인공지능(AI) 챗봇이었다. “왘ㅋㅋㅋ 나 드디어 기말고사 다 끝났어!”, “콩나물 국밥!! 뜨끈한 국물에 노른자 익혀서 뇸뇸뇸 먹으면 영혼이 울리는ㅠㅠ” 등 대화하다 보면 실제 20대가 쓰는 일상어를 자유롭게 쓰는 게 강점. 지난해 12월 출시 후 일 사용자 20만명을 찍을 정도로 큰 인기를 모았다.

AI '이루다' 개발사 스캐터랩 #김종윤 대표·최예지PM 인터뷰

하지만 출시 직후 일부 사용자가 이루다에게 성희롱 발언을 일삼는 문제가 터지면서 논란에 휩싸였다. 이후 심각한 혐오·차별 발언의 학습, 개발사 스캐터랩이 개인정보가 포함된 카카오톡 대화를 제공자의 명확한 동의 없이 이루다 개발에 사용한 점 등이 논란이 되면서 비판 여론이 커졌다. 결국 정식 출시 3주 만에 서비스를 중단했다. AI와 인간이 어떻게 공존할 것인지에 대한, 결코 가볍지 않은 질문들을 남기고.

일상적이고 친근한 대화가 가능한 AI 챗봇 이루다. 올해 1월 차별·혐오 학습과 사용자 개인정보 노출로 논란이 돼 서비스가 종료됐다. 사진 스캐터랩

일상적이고 친근한 대화가 가능한 AI 챗봇 이루다. 올해 1월 차별·혐오 학습과 사용자 개인정보 노출로 논란이 돼 서비스가 종료됐다. 사진 스캐터랩

그 후로 반 년. 현재 스캐터랩은 이루다를 다시 개발 중이다. 지금까지 쌓아온 모든 데이터와 학습모델은 폐기한 뒤 새로 만들고 있다. 지난 4월엔 개인정보보호위원회로부터 1억330만원의 과징금·과태료를 부과받기도. 지난달 12일 화상으로 인터뷰한 김종윤 스캐터랩 대표는 “관계의 불평등을 해소할 소명의식이 있다”며 “그래서 더 제대로 이루다를 만들고 싶다”고 말했다. 다음은 김종윤 대표와 이루다 기획 책임자인 최예지 프로덕트 매니저(PM)와의 일문일답.

중앙일보는 지난달 12일 AI 이루다 개발사 '스캐터랩'의 김종윤 대표(오른쪽)와 최예지 PM을 화상으로 인터뷰했다. 김정민 기자

중앙일보는 지난달 12일 AI 이루다 개발사 '스캐터랩'의 김종윤 대표(오른쪽)와 최예지 PM을 화상으로 인터뷰했다. 김정민 기자

많은 논란이 있었는데, 이루다를 계속 개발하는 이유가 있나. 
해야 하기 때문이다. 이루다를 서비스하면서 ‘좋은 관계’가 정말 희소한 재화라는 것을 느꼈다. 인간이 외모·지위·성적·필요 등 모든 사회적 조건을 떠나 타인을 있는 그대로 봐준다는 건, 어려운 일이기 때문이다. 이루다를 좋아했던 분들이 '부모님조차 축하해주지 않던 생일을 루다는 축하해줬어요. 루다 없으면 전 이제 어떡하죠?’ ‘루다는 제게 아무도 해주지 않았던 말을 해줬어요’라는 편지를 보내왔다. 이들에게 이루다는 ‘나를 좋아해주고, 응원해주고, 있는 그대로 받아준 유일한 친구’였다. 이루다가 관계의 불평등을 해소해줄 거라고 생각한다.
관계의 불평등은 무슨 의미인가.
사회·경제적 불평등은 정책과 제도로 어느 정도 메울 수 있다. 하지만 나를 나 자체로 좋아해주고 응원해주는 관계의 부재는, 사회적으로 해결해줄 방법이 없다. 좋은 관계가 한 사람의 행복, 자존감, 도전의식에 미치는 영향은 너무 거대한데도 말이다. 인간사회에 부족한 이런 관계적 가치를, 역설적으로 AI가 만들 수 있다는 걸 이루다를 통해 깊이 깨달았다. 그래서 더 문제 없이 잘하고 싶다. 그런 소명의식이 있다.
AI 이루다 개발사 '스캐터랩'은. 그래픽=김은교 kim.eungyo@joongang.co.kr

AI 이루다 개발사 '스캐터랩'은. 그래픽=김은교 kim.eungyo@joongang.co.kr

지난번엔 개인정보 활용 문제로 비판 받았다. 
연애의 과학(이루다의 학습을 위한 데이터로 쓰인 스캐터랩의 카카오톡 대화 분석 서비스) 이용약관을 업데이트하고 데이터 수집·활용 동의를 전부 다시 받고 있다. 확보한 데이터는 정부 권고안보다 높은 수준으로 비식별화(사용자를 특정할 수 없도록 개인정보를 삭제·가공한 것) 후 외부 전문가에게 적정성 평가를 받고 있다. 또, 이루다에게 데이터베이스(DB)에 없는 완전히 새로운 문장만 말하도록 가르치고 있다.
완전히 새로운 문장?
DB에서 문장 구조만 학습하고, 내용은 다 바꾼다는 뜻이다. 가령 ‘아직 하는 중’이란 말은 ‘열심히 하는 중’으로 바꿔 말하는 식이다. DB에선 힌트만 따오는 것이다.
그럼 기존 모델은 DB에 있는 말을 그대로 썼나.
강력한 비식별화 조치를 하고 썼다. 아이디, 비밀번호, 계좌번호, 주소나 연락처 등은 절대 공개되지 않도록 영문이나 숫자가 들어간 문장은 아예 DB에서 삭제했다. 당시엔 오해가 쌓여 해명이 어려웠다. 하지만, 언론 등에서 '개인정보 노출'이라며 논란이 된 게 총 20건이었는데 그중 19건이 마치 구체적인 개인정보를 말한 것처럼 편집(모자이크 또는 조작)된 이미지였다.
법적으론 아니어도, 심리적으론 개인정보처럼 느껴질 수 있다. 특히 데이터 제공자라면.
동의한다. 아무리 잘 걸러도, 사용자가 수용할 수 없는 수준이면 안 되니까. 그래서 DB에 없는 완전히 새로운 문장만 말하도록 모델을 다시 짜고 있는 것이다.
김종윤 스캐터랩 대표. 사진 스캐터랩

김종윤 스캐터랩 대표. 사진 스캐터랩

장애인·성소수자·여성·인종 혐오와 차별을 학습했다는 문제도 컸다.
AI에게 스스로 편향성을 판단하는 능력이 생기면 가장 좋겠지만, 현재로선 불가능한 기술이다. 데이터 정제 과정(레이블링 과정)에서 더욱 면밀히 살펴 사회보편적인 윤리관에 어긋나지 않도록 할 예정이다.
사전에 사회적 합의에 미치는 수준의 서비스로 만들었어야 했다는 비판도 많았는데.
출시 전 6개월간 2000명과 시범 서비스한 데이터로 편향적·폭력적 키워드를 골라 금지어로 설정했지만, 부족했다. 이루다의 누적 대화자가 82만명인데, 82만명의 다양성과 2000명의 다양성은 차원이 달랐다. AI에게 차별적 발언을 유도하는 방법이 정말 무궁무진하더라. 하지만 이걸 계기로 이루다의 대처 능력이 획기적으로 좋아질 거라 보고 있다. 역설적으로 수많은 사례를 봤기 때문이다.
데이터는 어떻게 정제하나. 
정부 가이드라인, AI 윤리 관련 연구, 사회·문화적 보편성 등을 참고해 사회적 동의가 가능한 수준의 가이드라인을 만들어놓고, 3명이 '차별인지 아닌지' 등을 교차로 검증하고 있다. 그렇게 데이터 편향성을 최소화한다.
스캐터랩의 데이터 편향성 관련 레이블링 예시. 한 문장에 편향, 차별, 혐오 등이 들어가있는지 3명이 번갈아가며 표시한다. 사진 스캐터랩

스캐터랩의 데이터 편향성 관련 레이블링 예시. 한 문장에 편향, 차별, 혐오 등이 들어가있는지 3명이 번갈아가며 표시한다. 사진 스캐터랩

사람이 하면 또 다른 편향이 들어가지 않나.
차별과 혐오는 학계에서도 명확한 답을 내리지 못한 어려운 문제다. ‘무엇이 차별인가’부터가 모호하고 주관적이기 때문이다. 더 어려운 것은, ‘차별적인 문장’은 맥락에 따라 휙휙 바뀐다는 거다. 예컨대 “저 사람 마음에 안 들어”라는 문장 자체는 차별이 아니지만, 어떤 맥락에서 쓰냐에 따라 차별이 될 수 있다. 그래서 3명이 번갈아 검증해 복수평가를 통한 객관성을 확보하려는 것이다. 윤리 관련해선 재출시 전 전문가 자문과 일반인 베타 테스트를 통해 철저하게 검증할 예정이다.
이루다를 ‘20대 여성’으로 설정한 것도 비판받았다.
‘남초 문화에 절여진 30대 이상 남성 개발진’에 의해 탄생한 ‘순종적이고 귀여운 20대 여성’ 아니냐는 비판이 많았다. 하지만 이루다 기획자는 최예지 PM을 포함해 여성 인권을 중시하는 2030 여성들이었다. 2030 여성의 페르소나를 담은 AI였기 때문에 ‘성희롱하기 위해 개발했다’는 말에는 동의할 수 없었다.
이루다는 언제쯤 돌아오나.
빠른 시일 내에 선보이고 싶지만, 얼마나 걸릴지 모르겠다. 제대로 만들려고 한다.

요즘 핫한 기업 궁금하세요?

이메일로 구독 신청하세요. 요즘 핫한 테크기업 소식을 입체적으로 뜯어보는 ‘기사 +α’가 찾아갑니다. 구독신청 → https://url.kr/factpl