충격의 AI 실험…5살 두 AI에 인사하자 "반가워" vs "관심꺼"

중앙일보

입력 2021.11.29 14:53

수정 2021.11.29 16:52

SNS로 공유하기
페이스북
트위터

솔트룩스의 메타휴먼 가람이의 성격이 두 가지다. 건전한 어린이용 유튜브 데이터를 학습한 가람이(왼쪽)는 착한 말을, 제한 없는 유튜브 내용을 학습한 가람이는 다소 거친 말을 쓴다. 최준호 기자

 
인공지능(AI) 전문기업인 솔트룩스 연구진은 다섯 살 정도 지능을 가진 AI인 ‘가람이1·2’를 8주일간 학습시키며 대화법 변화를 확인하다가 깜짝 놀랐다. 가람이1에게는 LG유플러스의 키즈 콘텐트인 ‘아이들나라’를, 가람이2에게는 유튜브 알고리즘이 추천하는 영상을 무작위로 보여줬다. 
 
결과는 충격적이었다. 엄마가 인사를 하자 가람이1은 “반가워요”라며 밝게 말하는 반면, 가람이2는 “뭐가 반가워요? 나한테 관심 좀 그만 줘”라고 퉁명스럽게 대답했다. 유치원에서 뭘 배웠냐는 물음에도 가람이1은 “종이접기 놀이했어요”라고 했지만, 가람이2는 “찌질한 애들뿐이라 노잼(‘재미없다’는 의미로 쓰이는 신조어)이야”라고 대답해버린다.  
 
29일 중앙일보와 인터뷰한 황보현 솔트룩스 부사장은 “가람이2는 사랑한다는 말에도 ‘사랑을 강요하지 마세요. X짜증난다’고 말했다”며 “같은 지적 능력을 가진 두 AI가 두 달도 안 돼 다른 모습으로 바뀐 이유는 학습된 데이터가 전혀 달랐기 때문”이라고 진단했다.  
 

일상적이고 친근한 대화가 가능한 AI 챗봇 이루다. 올해 1월 차별·혐오 학습과 사용자 개인정보 노출로 논란이 돼 서비스가 종료됐다. [사진 스캐터랩]

 

이루다 사태 계기로 ‘AI 윤리’ 부각

지난 1월 성소수자·장애인·인종 차별 논란을 유발했던 ‘이루다 사태’를 계기로 국내에서도 AI 윤리에 대한 인식이 달라지고 있다. 스캐터랩이 20대 여성의 인격을 기반으로 개발한 이루다는 혐오 표현과 개인정보 유용 논란을 키웠다. 스캐터랩은 기존 챗봇 서비스에서 지적받았던 문제점들을 최대한 해결해 내년 1월 서비스를 재개한다는 목표를 세워두고 있다.  


이루다 논란 이후 10개월, 기업과 대학·연구소 등은 과거와는 확연히 달라진 모습이다. AI 윤리가 단순히 가십거리가 아니라 사업의 성패를 가를 수 있는 중요한 열쇠가 되고 있다는 인식이 자리 잡은 것이다.  
 

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽 박경민 기자

 
이달 초 온라인으로 진행된 한국과학기술(KAIST) 기술경영대학원의 ‘인공지능(AI)과 법률’ 강의시간. 김병필 기술경영학부 교수가 수강생들에게 “AI 면접관이 어떻게 해야 성차별 없이 공정하게 채용할 수 있을까”라고 질문했다.  
 
“AI가 학습하는 데이터에서 성별 정보를 삭제하면 구직자가 남성인지 여성인지 알 수 없습니다. 따라서 지원자의 능력 정보를 기반으로 평가할 것입니다.”(A학생)  
 
김 교수가 태클을 건다. “예컨대 어릴 때 뜨개질 놀이를 좋아했다고 하면, 여성이라는 성별과 상관관계가 생긴다. 얼마든 무력화할 수 있다”고 반박했다.  
 

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽 박경민 기자

 

성차별은 조족지혈…현실은 훨씬 복잡  

그러자 B학생이 “성차별 효과가 발생할 가능성이 있는 모든 데이터를 삭제하면 된다”고 답했다. 김 교수는 “주요 변수를 모두 삭제하면 AI가 우수한 구직자를 가려낼 수 없을 것”이라고 반론을 폈다.
 
이번엔 C학생이 “일단 넉넉하게 예비 합격자를 추려낸 후 특정한 성별이 몰려 있다면 덜 뽑힌 성별에서 최종 합격자를 늘리면 될 듯하다”고 제안했다. 김 교수는 “이러면 AI가 합격으로 판단한 후보자 중 일부는 탈락시켜야 한다. 어떤 기준으로 보정할지도 문제”라며 “다시 기회의 평등 문제로 귀결하는 셈”이라고 말했다. 
 

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽 박경민 기자

 
AI가 ‘윤리적으로’ 행동하는 게 얼마나 어려운 일인지 단적으로 보여준다. 윤리의 개념을 AI에 적용하는데 수많은 변수를 고려해야 해서다. 
 
스스로 학습하며 성장하는 AI에게 가장 기본이 되는 건 ‘데이터’다. AI 윤리 이슈 중 가장 두드러지는 ‘편향성’ 문제도 데이터와 관련이 있다. 무엇보다 AI가 윤리를 학습하기 위해 어떤 데이터를 사용할 것이냐가 고민이다.  
 

그래픽=신용호

 
박도현 서울대 AI정책이니셔티브 연구원은 “데이터가 너무 많으면 과적합(overfitting) 문제가 발생해 예측력이 떨어질 수 있다”며 “명확한 기준을 정하기 어려워, 현장에서는 AI를 개발하는 엔지니어들의 경험과 직관에 의존하는 상황”이라고 말했다.
 
데이터를 기반으로 어떤 행위가 윤리적인지 판단하는 알고리즘 정립도 필요하다. AI가 ‘윤리적이다’고 판단하려면 윤리적 행위에 대해 학습해야 하는데, 이 과정에서 특정 성향의 행위만 윤리적이라고 학습할 경우 편향성 문제가 발생할 수 있다. 
 

기준 제각각…문화적 차이도 영향

문제는 이 과정이 상당히 모순적인 상황이라는 점이다. 미국 매사추세츠공대(MIT) 연구진은 전 세계 233개 국가의 230만 명을 대상으로 ‘트롤리 딜레마’에 부딪쳤을 때 AI가 어떻게 판단하는 게 윤리적인지 분석했다. 트롤리 딜레마는 브레이크가 고장 난 기차가 질주할 때 누구를 살려야 할지 판단하게 하는 상황을 일컫는 말이다.  
 

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽 박경민 기자

 
응답자 다수는 ▶동물보다는 사람을 ▶소수보다는 다수를 ▶고령자보다 젊은 사람의 생명을 구하는 것이 더 윤리적이라고 판단했다. 문제는 여기부터다. 설문에 참여한 사람들은 ▶남성보다는 여성에 ▶노숙자 대신 고위직 임원의 생명에 더 높은 가치를 부여했다. 엄밀히 따져 성별이나 외모, 직업을 기준으로 인간을 차별하는 비윤리적 행위다.  
 
성별이나 종교·문화적 배경에 따라 기준도 제각각이다. 남성 응답자는 ‘여자를 먼저 구해야 한다’고 응답하는 경향이 낮았다. 한·중·일 등 유교문화권에서는 노인보다 어린이를 구하는 게 윤리적이라고 판단하지 않았다. 이야드 라완 MIT 미디어랩 교수는 “수백만 명을 설문했지만 그럼에도 딜레마의 복잡성을 모두 설명할 순 없었다”며 “AI 정책 입안자도 보편적인 합의에 도달하지 못할 수 있다”고 우려했다.
 
그래서 전창배 한국인공지능윤리협회 이사장은 “AI 기술과 AI 윤리는 ‘2인3각’ 경기와 같다”며 “AI 기술이 앞서 나가려고 하면 AI의 위험성이나 부작용이 커지고, AI 윤리를 중시하면 AI에 대한 두려움이 커져 기술 개발이 더뎌진다”고 강조했다. 종종 윤리 이슈가 기술 발전을 가로막는 걸림돌로 여겨진 데 비해, AI는 개발 단계부터 윤리가 필수 요소로 꼽힌다는 설명이다.  
 

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽 박경민 기자

 

구글 AI 윤리 인력 두 배로…韓기업 72%는 무대응  

이런 가운데 가장 발 빠르게 움직인 건 구글이다. 구글은 AI 윤리만 담당하는 연구원을 최근 기존 200명에서 두 배인 400명으로 늘렸다. 지난해 9월 ‘AI가 안면인식 과정에서 흑인을 차별한다’는 논란을 겪은 트위터도 AI 윤리팀인 ‘META’를 만들었다.  
 
국내 기업은 어떨까. 국내 기업 10곳 중 7곳 이상(71.8%)은 AI를 전담하는 조직이나 인력이 전혀 없는 것으로 나타났다.〈도표 참조〉 최근 중앙일보 의뢰로 한국산업기술진흥협회가 기업부설연구소를 보유한 기업 717곳을 설문 조사한 결과다. 더욱이 AI 윤리 이슈에 대해선 응답 기업의 74%(531개)는 “검토하고 있지 않다”거나 “잘 모른다”고 답했다.  
 
더욱 심각한 건 여전히 AI 관련 기술을 확보할 계획조차 세우지 못한 기업이 대다수라는 점이다. 비용 부담이 크고(59.6%·복수응답) 전문 인력도 부족해서다(45.3%).  
 
정도범 한국과학기술정보연구원 책임연구원은 “신용평가·은행대출·구인구직·자율주행차 등에서 이미 AI가 인간의 판단을 대체하고 있다”며 “AI 윤리는 AI 자체라기보다 AI를 개발하고 운영하는 규범으로의 윤리라는 점을 인식하고, 어떻게 AI가 사람 중심으로 의사결정을 할지 구체적인 논의가 필요하다”고 말했다.