ADVERTISEMENT

안면인식 기술 등 악용 소지, AI 윤리 규제해야 더 발전

중앙선데이

입력

지면보기

815호 24면

[최준호의 첨단의 끝을 찾아서] AI 윤리 석학, 매튜 리아오 뉴욕대 교수

인공지능(AI)이 생활 속 깊숙이 들어왔다. AI 스피커는 옛 얘기다. 스마트폰 속 AI 비서는 해가 갈수록 똑똑해지고 있다. 말만 하면 뉴스와 음악을 들을 수 있고, 날씨와 교통정보 등 원하는 정보를 알 수 있다. 심심할 땐 챗봇을, 운전할 땐 반자율주행 차량에 의지한다. 보험·은행·카드사 등에 전화하면 이젠 AI부터 상대해야 한다. 삶은 편리해지고 안전해졌다고 할 수 있지만, 부작용도 만만치 않다. 곳곳에서 인권·윤리 문제가 불거지고 있다.

그래픽=양유정 yang.yujeong@joongang.co.kr

그래픽=양유정 yang.yujeong@joongang.co.kr

중국에선 폐쇄회로(CC)TV 카메라를 이용한 안면인식 기술로 열차 개찰구 관리, 무단횡단 감시를 넘어 강의실에서 조는 학생까지 걸러내는 상황에 이르렀다. 국산 챗봇 ‘이루다’는 지난해 1월 혐오 발언 논란을 빚고 서비스를 중단했다가 1년 만에 서비스를 재개했다. 기술 발전은 가속도를 더해 가는데, 법과 제도가 따라가지 못해 생기는 ‘지체현상’이다. 중앙SUNDAY가 최근 KAIST가 주최한 국제학술대회를 위해 한국을 찾은 AI 윤리 분야 석학인 매튜 리아오 미국 뉴욕대 철학과 교수를 만났다. 그는 최근 단행본 『인공지능 윤리』(Ethics of Artificial Intelligence)를 출간했다.

법·제도, 기술 발전 못 따라가 ‘지체현상’

책 소개를 부탁한다.
“알고리즘과 머신러닝 등 최신 AI 기술이 어느 한쪽으로 편향돼 특정 인종에 대한 차별적인 결과를 내놓는 단기적인 윤리 문제를 우선 소개했다. 다음으로는 인간보다 AI가 더 똑똑해지는 상황에서 인간은 어떻게 할 것인지, AI에게도 권리가 있다면 누가 그 권리를 부여하는지 등 보다 장기적인 이슈도 다뤘다. AI의 본질에 대해서도 썼다. ‘AI란 과연 무엇이며 인간의 판단과 어떤 식으로 상호작용을 하게 되는가’라는 질문과 답이다. 머신러닝은 덜 발달해도, 지나치게 발달해도 윤리적 문제를 일으킬 수 있다.”
구체적으로 설명해 달라.
“AI가 아직 충분히 발달하지 못해 생긴 사례부터 얘기하자. 구글이 2015년 진행한 한 이미지 프로젝트에서 AI는 흑인을 고릴라로 인식했다. 인간이 그동안 흑인의 이미지 데이터를 많이 입력하지 않았기 때문이다. AI가 너무 발달해도 윤리적 문제가 발생한다. 안면인식 기술은 범죄인이나 실종 아동을 찾는 데 도움을 주지만 정부가 시민을 감시하는 데 악용할 수도 있다. 그 과정에서 많은 권리가 침해되고 소수자에 대한 차별이 발생할 수 있다. 때로는 두 가지 상황이 한꺼번에 벌어지기도 한다. 예를 들어 자율살상무기는 안면인식 기술을 이용하는데 스스로 어떤 행위를 하는지 이해하지 못하기 때문에 무고한 사람을 실수로 해칠 소지가 있다. 암 진단 등 AI가 많이 사용되는 의료 분야에서도 비슷한 유형의 문제가 발생할 수 있다.”
기술에 앞서 윤리 문제로 AI를 규정하면 기술 발달을 저해하지는 않을까.
“나는 오히려 윤리가 기업 활동 내지는 기술의 발전을 더 촉진할 수 있다고 생각한다. 비윤리적으로 행동하는 기업은 언젠가는 주가가 폭락하고 ‘착한 기업’이 더 나은 결과로 나아갈 수 있다. 구글이 안면인식 기술을 군에서 활용할 수 있게 하는 프로젝트를 진행했을 때 연구자 1000여 명이 파업을 하면서 저항한 적이 있다. 윤리와 기업의 이윤은 상호 보완적인 관계를 형성할 수 있겠다는 생각이 든다. 의료 분야에서도 처음부터 윤리적인 제품을 내놓는 것이 결국엔 더 이득이라는 사실이 여러 번 증명됐다.”
서울 상암동 디지털미디어시티에서 시범운행 중인 자율주행 차량. [뉴시스]

서울 상암동 디지털미디어시티에서 시범운행 중인 자율주행 차량. [뉴시스]

윤리 규제는 나라마다 다르다. 그 차이로 인해 발생하는 문제를 어떻게 보는가.
“얼핏 생각하기에 규제가 덜한 나라에서 연구하면 편할 것 같다. 하지만 규제가 조금 더 강한 곳에서 연구하는 게 연구자 입장에서는 나을 수도 있다. 규제가 덜한 나라에서 연구하면 규제가 강한 다른 나라에 적용하는 데 문제가 있을 수밖에 없고, 연구 결과의 신뢰도에 의문이 제기될 수도 있다. 이 문제는 현재 의료 분야에도 나타나고 있다.”
중국은 인권·윤리를 무시해가며 어마어마한 데이터를 확보하고 있는 것으로 알려져 있다. 이러면 결국 미국보다 중국이 AI 기술에서 앞서 가는 게 아닐까.
“그렇다. 중국 AI가 미국보다 앞서 나갈 수밖에 없는 상황이다. 중국 정부는 사람들의 권리를 무시하고 방대한 양의 데이터를 수집할 수 있기 때문이다. 문제는 이것이 윤리적으로 맞느냐, 그런 기술을 우리가 수용하는 것이 맞느냐는 것이다. 과거의 사례를 보자면 독일 나치가 비윤리적인 인체실험을 통해 많은 정보를 얻었다. ‘나치 과학’으로 불리는 그런 방법으로 취득된 데이터를 우리가 활용하는 것이 맞는지 지금 과학자들 사이에서도 쟁점이 되고 있다. 대대적인 인권 침해가 발생하는 방법은 용인해서는 안 된다는 인식이 퍼지고 있다.”
옳고 그르고의 문제가 아니라, 이기느냐 지느냐의 문제 아닌가.
“비윤리적인 방법을 쓰면 단기적으로는 과학 발전을 이룬다 해도 결과적으로는 후퇴할 수밖에 없다는 생각이 든다. 예를 들어 2018년 한 과학자가 윤리 규제가 덜한 중국에서 유전적으로 조작된 아동에 대한 실험 연구를 했다가 국제사회의 신랄한 비판을 받았다. 중국에서 이뤄지는 과학 연구와 중국 과학자에 대한 불신이 높아지면 중국 과학은 뒤처질 수밖에 없다.”
미래학자 겸 인공지능 전문가인 레이 커즈와일은 그의 저서 『특이점이 온다』에서 AI가 인간을 초월하게 될 것이라고 했다. AI가 앞으로 10년, 20년 뒤 얼마나 더 발전할 수 있을까.
“AI가 어디까지 발전할지는 아무도 모른다. 하지만 최근 주목받고 있는 머신러닝 기술에 기반한 AI가 인간을 초월할 것이라고는 생각하지 않는다. 머신러닝은 인과관계를 이해하는 것이 아니라 그저 대량의 데이터를 수집하고 그 결과를 보여주는 수준에 불과하다. 하지만 커즈와일의 말처럼 AI가 인간을 초월해 특이점에 이르게 된다면 거기엔 세 가지 길이 있을 것 같다.”
세 가지 길이 무엇인가.
“첫째는 ‘마인드 업로딩’(mind uploading)이라는 방법론이다. 인간 뇌에 있는 모든 뉴런(뇌세포)를 읽어들이고 복제한 뒤 연산적으로 뉴런의 모델을 만들어내는 것이다. 502개의 뉴런을 가진 미생물을 활용해 뇌를 재구성해보는 ‘인간의 뇌 프로젝트’가 현재 진행되고 있다. 둘째는 컴퓨터 프로그래밍을 통해 슈퍼지능을 만들어내는 것, 셋째는 인공 뉴런을 만드는 것이다. 예를 들어 알츠하이머 환자의 죽어가는 뇌세포를 인공세포로 서서히 바꿔나가며 치료한다면 결국엔 뇌세포가 인공 뉴런으로 대체되는 날이 올 수도 있는 것이다.”
구글의 AI 챗봇 ‘람다’가 사람 수준의 지각능력을 갖고 있다고 주장했던 엔지니어가 해고된 일이 있었다. AI가 자의식이 있다고 생각하는가.
“그렇게 생각하지 않는다. 람다나 또 다른 AI GPT3의 자연어 처리 기술은 뭔가를 이해한 것은 아니다. 지금 기술은 그저 여러 개 단어를 조합해서 끼워 맞추는 것이다.”

AI가 인간을 초월할 거라곤 생각 안 해

지난해 초 혐오발언 논란으로 한국 사회에 인공지능 윤리 문제를 일으켰던 챗봇 이루다. [연합뉴스]

지난해 초 혐오발언 논란으로 한국 사회에 인공지능 윤리 문제를 일으켰던 챗봇 이루다. [연합뉴스]

AI 윤리 문제를 얘기할 때 교통사고를 문제로 삼는 사례가 많다. 하지만 자율주행차는 기존 차량에 비해 사고율이 극히 낮지 않나.
“맞다. 하지만 지금 자율주행 자동차들이 근본적인 이해는 못하고 있다. 도로 표지판이나 지나가는 대상 등의 단편적 지식이 모여 있는 상태다. 예를 들어 ‘멈춰라’는 표지판이 있는데 그 위에 바나나 그림을 올려놓으면 자율주행 자동차는 그것을 바나나로 인식하고 멈추지 않는다. 사고율이 낮을 수 있지만, 결국에는 사람이 통제력을 가질 수 있어야 한다는 것이 핵심이다. 사람이 술을 마시고 운전하다가 사고를 내면 인과관계를 파악할 수 있지만 자율주행 자동차는 아직까지 사고를 통제할 수 없는 게 문제인 상황이다.”
AI가 스스로 판단해 인간을 공격하는 무기가 현재 있나.
“실제로 존재한다. 2020년 터키에서 사용된 어느 드론은 안면인식 기술로 특정 대상물을 선택해 죽이는 자율살상무기였다. 아직 완전히 신뢰할 수 없어 본격적으로 가동시키지 않고 있을 뿐이다. 이런 드론이 크기가 작아지고 대량으로 사용되면 개개인의 암살에 사용될 수 있게 된다. 과연 우리가 살고 싶은 세상의 모습일까.”
그런 무기에 대한 당신의 생각은.
“굉장히 위험하다. 우리가 핵무기에 대해 규제하고 있는 것처럼 자율살상무기에 대해서도 비슷한 규제가 있어야 한다고 생각한다.”
최근 AI가 그린 그림에 대해 화가들이 항의하고 있다. AI의 창작물 저작권은 어디에 귀속돼야 하나.
“피카소도 초기에 다른 사람의 화풍을 모방하다가 자신만의 화풍을 찾아나가지 않았나. 자기만의 스타일을 확보한 시점이 언제인가가 핵심적인 질문이 될 것이다. AI도 마찬가지다. 결국은 학습한 데이터로 모방을 하다가 어느 순간이 되면 정말 새로운 무엇인가를 창작하기에 이르게 될 것이다. AI에게 독창적인 명령을 주는 사람에게 저작권이 귀속돼야 한다는 얘기가 나오고 있다.”

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT