ADVERTISEMENT
오피니언 박경렬의 미래를 묻다

우리는 AI를 사용할 준비가 되어 있는가

중앙일보

입력

지면보기

종합 26면

박경렬 KAIST 과학기술정책대학원 교수

박경렬 KAIST 과학기술정책대학원 교수

산이 바다를 사랑할 리는 없다. 그래도 ‘모든 산맥들이 바다를 연모해 휘달릴 때도 차마 이곳을 범하던 못하였으리라’는 이육사의 시 ‘광야(曠野)’의 구절만큼 독립에 대한 절절함을 표현할 수 있을까. 인격이 없는 무생물에 감정과 의식을 부여하는 의인화는 예술적 상상력을 풍부하게 한다. 과학적 발견과 기술 혁신에도 상상력은 중요하다. 인공지능(AI)은 자아가 있을까. 자기복제의 욕구는 있을까. 인류를 지배하지는 않을까. 도발적인 질문에 과학기술의 상상력은 열려 있어야 한다.

하지만 AI에 대한 과도한 의인화는 위험하다. 검색 엔진에서 AI의 이미지를 찾으면 놀라울 정도로 비슷하다. 눈·코·입을 갖춘 사람의 모습에 뇌 부분은 열려 있어 전기회로를 형상화한 이미지가 보인다. 2018년 AI 로봇 소피아(Sophia)와의 대담이 한국에서 열렸다. 한복을 입혀 놓은 소피아에게 사회자는 자신과 비교하며 누가 예쁜지를 물었다. “누구나 아름다운 존재이며 비교할 수 없다”는 답은 이미 디지털 공간 어딘가에 인간이 기록했을 법한 ‘데이터’다. 그렇기에 대담자의 환호와 과도한 해석은 불편했다.

언어와 이미지는 인간의 사유를 규정하기에 우리는 기계학습 모델이라는 AI의 본질을 계속 의식해야 한다.

공포심 키우는 과도한 의인화
왜곡·허위정보 양산이 더 걱정
AI 본질은 결국 기계학습일 뿐
윤리 기반 디지털 역량 길러야

쓰레기를 넣으면 쓰레기가 나온다

2018년 1월 서울에서 열린 ‘4차 산업 혁명, 소피아에게 묻다’ 콘퍼런스에서 인공지능(AI) 로봇 ‘소피아’가 사회자의 질문에 답하고 있다. [연합뉴스]

2018년 1월 서울에서 열린 ‘4차 산업 혁명, 소피아에게 묻다’ 콘퍼런스에서 인공지능(AI) 로봇 ‘소피아’가 사회자의 질문에 답하고 있다. [연합뉴스]

2021년 혐오 표현으로 논란이 된 챗봇 ‘이루다’ 사태의 본질도 ‘터무니없는 쓰레기를 넣으면 쓰레기가 나온다(garbage in, garbage out : GIGO)’는 정보시스템 분야에서 익히 알려진 데이터 편향이었다. AI는 사회라는 데이터를 비추는 거울이기에, 논란은 신뢰할 수 있는 AI 개발과 우리 사회의 차별·혐오를 개선하는 것으로 이어져야 했다.

AI에 대한 과도한 의인화는 기계가 인간처럼 자의식을 가지고 인류를 지배할지 모른다는 대중의 인식에 영향을 준다. AI의 자기복제 능력에 대한 질문에 답은 간단하다. 생물학적 생식과 발생의 과정을 유기체가 아닌 기계 혹은 알고리즘이 가질 리는 만무하다. 그럼에도 불구하고 번식하는 것이 있다면 그것은 가짜뉴스와 오염된 ‘밈(meme)’일 것이다. 영국의 진화생물학자 리처드 도킨스는 그리스어 mimeme(모방)과 gene(유전자)을 합성해 ‘밈’이라는 개념을 제시하며 문화나 가치가 시간을 흘러 전파되는 것을 설명했다.

인간의 의도를 가진 AI가 생성한 밈이 허위정보 확산의 강력한 도구로 사용된 사례는 많다. 백신의 과학성에 대한 왜곡, 적대국 댓글 조작 및 사이버 여론전, 우크라이나 전쟁에서의 ‘딥 페이크’ 물(物)의 살포 등이다. 인류가 쌓아온 가치·규범·윤리를 위협하는 상황을 어떻게 공동 관리할지가 막연한 AI의 위협에 대한 걱정보다 중요하다.

‘인간 대 기계’ 아닌 ‘인간과 인간’ 문제

인간과 기계를 대척점에 세우는 세계관은 기술혁신으로 다양한 경계가 허물어지고 복합화되는 것을 담지 못한다. 알고리즘을 설계하고 선택적 데이터를 학습시킨 AI 뒤편 실재 인간의 존재도 잊게 한다. AI 윤리와 정책의 쟁점은 AI 자체의 권리나 규제가 아니라, 인간이 인간을 상대로 새로운 기술을 사용하는 방식에 있다. 인간과 기계가 아닌 결국 인간과 인간의 문제다.

작년에 타계한 프랑스의 사상가 브뤼노 라투르는 인간-기계의 이분법적 관계를 타파하고자 했다. 그는 “살인을 하는 것은 총도 아니고, 사람도 아닌, 총을 든 사람 즉 인간-기계의 하이브리드(혼종)”라고 표현했다. 필자가 공부하던 정보시스템학과 석좌교수로 있던 그는 부르고뉴 지방 와이너리 가문 자제답게 학생들의 설익은 질문에도 항상 잘 익은 풍미의 와인과 같은 영감을 주었다. 인간-기계의 상호작용이 초개인화되고 있는 AI 분야에도 함의를 준다.

포용적인 AI 기술 개발 나서야

우주개발·원자력과 같은 ‘거대과학’에 비해 AI 산업은 일반 사용자가 제품 개발에 데이터를 제공하고 윤리 가이드라인 제정에 참여해야 할 공간이 크다. 결국 ‘디지털 시민’의 역량을 어떻게 발전시킬지의 문제다.

작년 9월 윤석열 대통령은 미국 뉴욕대에서 디지털 자유 시민을 위한 ‘뉴욕 구상’을 발표했다. 이에 정부는 ‘디지털 전략’으로 디지털 역량, 경제, 플랫폼 정부, 혁신 문화, 포용 사회의 5개 세부 계획을 수립하였다. 선언은 좋으나 다음의 세 가지 후속방안이 필요하다. 첫째, 포용성 논의를 넘은 보편적 디지털 사회의 구현이다. 기술 혁신이 사회경제적 불평등을 확장하는 방향으로 가지 않아야 한다. 논의 중인 ‘디지털 권리장전’과 ‘디지털 사회 기본법’이 다양한 이해 당사자의 참여를 거쳐 만들어져야 하는 이유다.

둘째, 디지털 시민교육이다. ‘100만 디지털 인재 양성’, ‘코딩 교육 2배 확대’라는 읽기 좋은 슬로건만 넘쳐날 뿐 경쟁력을 갖춘 데이터 및 디지털 인력을 키우는 전략은 보이지 않는다. 디지털 폭력과 개인정보 침해로부터 자신을 지키고, 디지털 감시, 알고리즘의 편향성에 대해 비판하는 능력을 기르는 교육을 정규 과정화하는 것이 더 필요하다. 공존의 윤리를 바탕으로 디지털 참여 역량을 기르는 것은 미래 세대부터 고령층까지 모든 연령대에서 필요하다.

마지막으로 글로벌 연대의 필요성이다. 정부의 권위성과 비민주성을 강화하지 않는 디지털 전환은 시민의 자유와 인권을 지키는 핵심이다. 우리 정부도 예외가 될 수 없다. 작년 뉴욕대(NYU) 디지털비전포럼의 후속 조치로 카이스트(KAIST)와 NYU는 보다 포용적인 AI 기술 개발과 디지털 거버넌스를 연구하는 협력센터를 출범하였다. 이 작은 움직임이 디지털 자유의 논의를 세계 시민과 공유하자는 뉴욕 구상을 구체화하는 데 기여하리라 내다본다.

박경렬 KAIST 과학기술정책대학원 교수