ADVERTISEMENT

“사랑해?” 묻자 “X짜증”…8주간 유튜브만 본 AI, 무례해졌다

중앙일보

입력

업데이트

지면보기

종합 14면

5세 지능 AI 가람이.

5세 지능 AI 가람이.

인공지능(AI) 전문기업인 솔트룩스의 연구진은 다섯 살 정도 지능을 가진 AI인 ‘가람이1·2’를 8주일간 학습시키며 대화법 변화를 살펴보다가 충격적인 결과를 받았다. 가람이1에는 LG유플러스의 키즈 콘텐트인 ‘아이들나라’를, 가람이2에게는 유튜브 알고리즘이 추천하는 영상을 무작위로 보여줬다.

이후에 엄마가 인사를 하자 가람이1은 “반가워요”라며 밝게 말하는 반면, 가람이2는 “뭐가 반가워요? 나한테 관심 좀 그만 줘”라고 퉁명스럽게 쏘아붙였다. 유치원에서 뭘 배웠냐는 물음에도 가람이1은 “종이접기 놀이했어요”라고 했지만, 가람이2는 “찌질한 애들뿐이라 노잼(‘재미없다’는 의미로 쓰이는 신조어)이야”라고 대답했다.

29일 중앙일보와 인터뷰한 황보현 솔트룩스 부사장은 “가람이2는 사랑한다는 말에도 ‘사랑을 강요하지 마세요. X짜증난다’고 말했다”며 “같은 지적 능력을 보유한 두 AI가 이렇게 상반된 모습을 보이는 것은 학습된 데이터가 전혀 달랐기 때문”이라고 진단했다.

AI 챗봇 이루다. 올해 1월 차별·혐오 학습과 사용자 개인정보 노출로 논란이 돼 서비스가 종료됐다. [사진 이루다 페이스북 캡처]

AI 챗봇 이루다. 올해 1월 차별·혐오 학습과 사용자 개인정보 노출로 논란이 돼 서비스가 종료됐다. [사진 이루다 페이스북 캡처]

관련기사

지난 1월 성소수자·장애인·인종 차별 논란을 유발했던 ‘이루다 사태’를 계기로 국내에서도 AI 윤리에 대한 인식이 달라지고 있다. 특히 기업과 대학·연구소 등은 AI 윤리가 단순히 가십거리가 아니라 사업 성패를 가를 수 있는 중요한 열쇠가 되고 있다는 데 인식을 같이하고 있다.

하지만 AI가 ‘윤리적으로’ 행동하는 걸 규정하는 일은 상당히 복잡하다. 윤리 이슈를 AI에 적용하는데 수많은 변수를 고려해야 해서다.

윤리 판단할 알고리즘 정립 필요

이달 초 온라인으로 진행된 한국과학기술(KAIST) 기술경영대학원의 ‘인공지능(AI)과 법률’ 강의시간. 김병필 기술경영학부 교수가 수강생들에게 “AI 면접관이 어떻게 해야 성차별 없이 공정하게 채용할 수 있을까”라고 질문했다.

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

그러자 A학생이 손을 들고 “성별 정보를 삭제하면 구직자가 남성인지 여성인지 알 수 없다”며 “따라서 지원자의 능력 정보를 기반으로 평가할 것”이라고 말했다. 김 교수는 “한 지원자가 어릴 때 뜨개질 놀이를 좋아했다고 하면, 여성이라는 성별과 상관관계가 생긴다. 얼마든 무력화할 수 있다”고 반박했다.

잠시 뒤 B학생이 “성차별 효과가 발생할 가능성이 있는 모든 데이터를 삭제하면 된다”고 답했다. 김 교수는 또 “주요 변수를 모두 삭제하면 AI가 우수한 구직자를 가려낼 수 없을 것”이라고 반론을 폈다. 이번엔 C학생이 “일단 넉넉하게 예비 합격자를 추려낸 후 특정한 성별이 몰려 있다면 덜 뽑힌 성별에서 최종 합격자를 늘리면 될 듯하다”고 제안했다. 김 교수는 “이러면 AI가 합격시킨 후보자 중 일부는 탈락시켜야 한다. 어떤 기준으로 보정할지도 문제”라며 “다시 기회의 평등 문제로 귀결하는 셈”이라고 말했다.

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

스스로 학습하며 성장하는 AI에게 가장 기본이 되는 건 ‘데이터’다. 무엇보다 AI가 윤리를 학습하기 위해 어떤 데이터를 사용할 것이냐가 고민이다. 박도현 서울대 AI정책이니셔티브 연구원은 “데이터가 너무 많으면 과적합(overfitting) 문제가 발생해 예측력이 떨어질 수 있다”고 말했다. 이야드 라완 미국 MIT 미디어렙 교수는 “수백만 명을 설문 조사했지만 AI 윤리 문제의 복잡성을 단순하게 설명할 수 없었다. 정책 입안자도 보편적인 합의에 도달하지 못할 수 있다”고 우려했다.

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

기업에 ‘인공지능(AI) 윤리’ 물었더니. 그래픽=박경민 기자 minn@joongang.co.kr

어떤 행위가 윤리적인지 판단하는 알고리즘 정립도 필요하다. 전창배 한국인공지능윤리협회 이사장은 “그래서 AI 기술과 AI 윤리는 ‘2인3각’ 경기와 같다”며 “AI 기술이 앞서 나가려고 하면 AI의 위험성이나 부작용이 커지고, AI 윤리를 중시하면 AI에 대한 두려움이 커져 기술 개발이 더뎌진다”고 강조했다. 종종 윤리 이슈가 기술 발전을 가로막는 걸림돌로 여겨지는 데 비해, AI는 개발 단계부터 윤리가 필수 요소라는 설명이다.

이런 가운데 가장 발 빠르게 움직인 건 구글이다. 구글은 AI 윤리를 전담하는 연구원을 기존 200명에서 최근 400명으로 늘렸다. 지난해 ‘AI가 안면인식 과정에서 흑인을 차별한다’는 논란을 겪은 트위터도 AI 윤리팀인 ‘META’를 만들었다.

국내 기업 74% “AI 윤리 잘 모른다”

국내는 어떨까. 국내 기업 10곳 중 7곳 이상(71.8%)은 AI를 전담하는 조직이나 인력이 전혀 없는 것으로 나타났다. 최근 중앙일보 의뢰로 한국산업기술진흥협회가 기업부설연구소를 보유한 기업 717곳을 설문 조사한 결과다.  더욱이 AI 윤리 이슈에 대해선 응답 기업의 74.1%(531개)는 “검토하고 있지 않다”라거나 “잘 모른다”고 답했다. 이 같은 이유에 대해선 비용 부담(59.6%·복수응답)과 전문인력 부족(45.3%) 등을 꼽았다.

정도범 한국과학기술정보연구원 책임연구원은 “신용평가·은행대출·구인구직 등에서 이미 AI가 인간의 판단을 대체하고 있다”며 “AI 윤리는 AI를 개발·운영하는 규범으로서 윤리라는 점을 인식하고, 어떻게 AI가 사람 중심으로 의사결정을 할지 심층적인 논의가 필요하다”고 말했다.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT