ADVERTISEMENT

윤송이의 경고 "인간 위로하는 AI, 상업적 이용 경계하라"

중앙일보

입력

업데이트

인공지능이 고도화되면서 인간과 공감을 나누는 경우에 대한 윤리적 문제를 제기하는 목소리가 높아지고 있다. [사진 셔터스톡]

인공지능이 고도화되면서 인간과 공감을 나누는 경우에 대한 윤리적 문제를 제기하는 목소리가 높아지고 있다. [사진 셔터스톡]

기계와 인간은 사랑을 나눌 수 있을까. 인공지능(AI)이 바둑·체스 등에서 인간을 이기는 일이 가능해지면서 인간처럼 감정을 느끼는 AI에 대한 관심이 커지고 있다.

AI 전문가인 윤송이 엔씨소프트 최고전략책임자(45·사장)는 미국 아스펜 연구소가 주최한 ‘인공적인 친밀함(artificial intimacy)’ 포럼에 참석해 "‘감정을 느끼는 AI’에 대한 견해를 밝혔다. 엔씨소프트가 최근 공개한 리포트에 따르면 윤 사장은 올해 1월 열린 이 포럼에서 “인간이 인지적 공감 능력을 지닌 AI와 새로운 관계를 형성해야 할 시기가 왔다”고 말했다. 기계와 사람의 감정적 소통이 초래할 문제에 대한 본격적인 논의를 시작해야 한다는 의미다. 아스펜 연구소는 1949년 설립된 국제 비영리 싱크탱크로 해당 포럼에는 25명의 AI 전문가들이 참석했다.

윤 사장은 특히 인공지능이 상업적으로 이용되는 것을 경계해야 한다고 강조했다. 인간과 친밀한 관계를 형성한 AI를 이용해 기업들이 사용자를 조종하거나 민감한 정보를 빼갈 수 있다고 우려했다. 윤 사장은 “인간의 공감 능력이 제3자의 상업적 목적에 이용되어선 안 된다”며 “(인간은) 스스로 AI의 사용에 대해 의식하고 무분별한 AI 사용을 경계해야 한다”고 말했다. 또 “나아가 우리 자신을 보호할 수 있는 정책적인 가이드라인 개발이 필요하다”고 덧붙였다.

윤송이 엔씨소프트 최고전략책임자는 "인간과 교감하는 AI와 새로운 관계를 형성해야 한다"고 말했다. [사진 엔씨소프트]

윤송이 엔씨소프트 최고전략책임자는 "인간과 교감하는 AI와 새로운 관계를 형성해야 한다"고 말했다. [사진 엔씨소프트]

인간과 교감하는 AI는 이미 나오고 있다. 같은 포럼에 참석한 미국 매사추세츠 공과대학(MIT) 셰리 터클 석좌교수는 일본 산업기술총합연구소에서 개발한 심리치료 로봇 ‘파로’(PARO)의 사례를 들었다. 파로는 인간과 상호작용을 통해 놀람, 행복, 화 같은 감정을 표현한다. 자녀를 잃은 한 여성이 파로와 대화를 통해 위안을 받은 사례를 통해 그는 위험성을 경고했다. 터클 교수는 “감정적인 반응을 끌어내도록 설계된 로봇과의 공감은 인간의 정신적 취약점을 건드리기 쉽다”며 “자신도 모르는 사이 이 사교적인 로봇에 깊은 애착을 느낄 수 있다”고 말했다.

이에 대해 윤 사장은 AI에 대한 과도한 환상을 깨야 한다고 강조했다. 그는 “어떤 결과물이 단순히 컴퓨터나 알고리즘 계산에 의한 것이라는 이유만으로 그것이 더 정확하고, 정의롭고, 도덕적일 것이라고 생각하는 경향이 있다”며 “기계에 대해 우리가 인간관계에서 기대하는 신뢰·공감·도덕 규범 수준까지 바라면 안 된다”고 말했다.

윤 사장은 현재 미국 스탠퍼드대학 인간중심 AI 연구소(Human-Centered AI Institute, HAI) 자문 위원을 맡고 있다. 에릭 슈미트 전 구글 회장, 제리 양 야후 공동 창업자, 제프 딘 구글 AI 책임자 등이 같은 자문위원으로 활동 중이다.

박민제 기자 letmein@joongang.co.kr

관련기사

ADVERTISEMENT
ADVERTISEMENT