“속성적으로 AI는 편향성 가져…강력한 윤리 메커니즘 필요한 이유”

중앙일보

입력 2021.12.01 11:09

업데이트 2021.12.01 15:54

산드라 와처 영국 옥스퍼드대 교수 겸 앨런튜링연구소 연구원은 중앙일보와 인터뷰에서 강력하고 일관되게 적용할 수 있는 AI 윤리 메커니즘이 필요하다고 강조했다. [사진 산드라 와처]

산드라 와처 영국 옥스퍼드대 교수 겸 앨런튜링연구소 연구원은 중앙일보와 인터뷰에서 강력하고 일관되게 적용할 수 있는 AI 윤리 메커니즘이 필요하다고 강조했다. [사진 산드라 와처]

“보다 강력하고 일관되게 적용할 수 있는 인공지능(AI) 윤리 집행·책임 메커니즘이 필요하다. 이를 위해 전 세계 AI 관계자들이 머리를 맞대야 한다.” AI 윤리 분야의 세계적 석학인 산드라 와처 영국 옥스퍼드대 옥스퍼드인터넷연구소 교수는 이렇게 강조했다. 와처 교수는 영국 국립 앨런튜링연구소 연구원을 겸직하면서 AI와 빅데이터 분야에 어떻게 윤리를 접목할지 연구하고 있다. 다음은 중앙일보와 이메일 인터뷰 내용.

산드라 와처 英 옥스퍼드대 교수 인터뷰

유럽에서 AI 윤리를 법제화가 어디까지 진행됐나.
“유럽연합 집행위원회(EC)가 제안한 ‘AI통일규범법’은 유럽연합(EU) 역사상 최초로 AI를 전면적으로 규제하려는 시도다. 다만 아직은 협상 단계라 AI를 규제하는 데 얼마나 효과적일지는 좀 더 두고 봐야 한다.”
AI를 활용하는 과정에서 윤리적 잣대가 꼭 필요한가.
“먼저 데이터 보호 차원이다. AI 알고리즘이 작동하려면 학습할 데이터가 필요하다. 현재는 AI가 개인정보를 침해할 경우 충분한 보호를 제공하지 않는다. 그리고 AI 시스템은 애초에 편향적일 가능성이 크다. AI가 ‘과거의 데이터’를 학습하기 때문이다. 과거 데이터는 불평등하거나 부조리한 사회적 유산을 담고 있을 확률이 높다. AI 시스템은 일종의 블랙박스다. 이 복잡한 시스템이 어떤 과정을 걸쳐 결정하는지 정확히 이해하기 어렵다. AI 시스템의 작동 원리를 명확히 알지 못하는 상황에서 윤리는 우리가 기댈 수 있는 하나의 수단이다.”
유럽과 미국을 중심으로 인공지능(AI) 윤리 관련 법안이 속속 발의되고 있다. [사진 플리커닷컴]

유럽과 미국을 중심으로 인공지능(AI) 윤리 관련 법안이 속속 발의되고 있다. [사진 플리커닷컴]

AI의 확산 속도에 비해 AI 윤리는 상대적으로 고민이 부족하다는 지적이 나온다.  
“지금까지 세계 각국에서 AI 윤리 프레임워크나 AI 준칙, 혹은 민관 이니셔티브 등을 발표했다. 하지만 이런 시도로는 한계가 있었다. AI를 개발하는 기업이나 AI를 사용해 의사결정을 내리는 공공·민간기관의 자발적·주관적 평가를 전제로 하고 있어서다. 지금보다 더 다양한 영역·국가에서 강력하고 일관되게 적용할 수 있는 AI 윤리 집행·책임 메커니즘이 필요하다. 이를 마련하기 위해 전 세계 관계자들이 머리를 맞댈 필요가 있다. 원칙만으로 윤리를 보장할 수는 없어서다.”  
현실적으로 ‘윤리적 AI’ 개발이 쉽지 않다는 의견도 있다.
“기대하는 목표를 명확히 설정해야 한다. 우리의 목표는 윤리적 추론에 참여할 수 있는 AI 시스템 제조가 아니다. 이보다는 윤리적 AI 개발 프로세스 자체를 목표로 삼아야 한다. 먼저 AI의 편견이나 부도덕한 판단을 테스트해서 이를 바로 잡아야 한다. 또 AI의 결정에 영향을 받는 당사자나 AI 사용자에게 정확하게 설명하고, AI 개발자가 이를 비판적으로 수용해야 한다.”

☞산드라 와처 교수=영국 옥스퍼드대 옥스퍼드인터넷연구소에서 교수로 재직 중이다. 인공지능(AI), AI 윤리, 로봇공학, 인터넷 규제 분야를 주로 연구한다. 컴퓨터과학(전산학)의 아버지로 불리는 고 앨런 튜링 영국 맨체스터대 교수의 이름을 따서 명명한 영국국립 AI연구소 ‘앨런튜링연구소(Alan Turing Institute)’에서 펠로로 활동하고 있다.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
모비온

Innovation Lab

ADVERTISEMENT