“과거 데이터로 학습하는 AI, 편향적일 가능성 커”

중앙일보

입력 2021.12.02 00:04

업데이트 2021.12.02 01:09

지면보기

경제 02면

샌드라 와처 영국 옥스퍼드대 옥스퍼드인터넷연구소 교수.

샌드라 와처 영국 옥스퍼드대 옥스퍼드인터넷연구소 교수.

“보다 강력하고 일관되게 적용할 수 있는 인공지능(AI) 윤리를 집행하고 책임질 메커니즘이 필요하다. 이를 위해 전 세계 AI 관계자들이 머리를 맞대야 한다.”

AI 윤리 분야의 세계적 석학인 샌드라 와처(사진) 영국 옥스퍼드대 옥스퍼드인터넷연구소 교수는 이렇게 강조했다. 와처 교수는 영국 국립 앨런튜링연구소 연구원을 겸직하면서 AI와 빅데이터 분야에 어떻게 윤리를 접목할지 연구하고 있다. 중앙일보는 지난달 25일 와처 교수를 e메일로 인터뷰했다. 다음은 일문 일답.

유럽의 AI 윤리 법제화 진행상황은.
“유럽연합 집행위원회(EC)가 제안한 ‘AI 통일규범법’은 유럽연합(EU) 역사상 최초로 AI를 전면적으로 규제하려는 시도다. 다만 아직은 협상 단계라 AI를 규제하는 데 얼마나 효과적일지는 좀 더 두고 봐야 한다.”

관련기사

AI 활용 때 윤리적 잣대가 왜 필요한가.
“먼저 데이터 보호 차원이다. AI 알고리즘이 작동하려면 학습할 데이터가 필요하다. 현재는 AI가 개인정보를 침해할 경우 충분한 보호를 제공하지 않는다. 그리고 AI 시스템은 애초에 편향적일 가능성이 크다. AI가 ‘과거의 데이터’를 학습하기 때문이다. 과거 데이터는 불평등하거나 부조리한 사회적 유산을 담고 있을 확률이 높다. AI 시스템은 일종의 블랙박스다. 이 복잡한 시스템이 어떤 과정을 걸쳐 결정하는지 정확히 이해하기 어렵다. AI 시스템의 작동 원리를 명확히 알지 못하는 상황에서 윤리는 우리가 기댈 수 있는 하나의 수단이다.”
AI 확산 속도에 비해 AI 윤리에 대해선 고민이 부족하다는 지적이 나온다.
“지금까지 세계 각국에서 AI 윤리 프레임워크나 AI 준칙, 혹은 민관 이니셔티브 등을 발표했다. 하지만 한계가 있었다. AI를 개발하는 기업이나 AI를 사용하는 공공·민간기관의 자발적·주관적 평가를 전제로 하고 있어서다. 지금보다 더 다양한 영역·국가에서 강력하고 일관되게 적용할 수 있는 AI 윤리 집행·책임 메커니즘이 필요하다. 원칙만으로 윤리를 보장할 수는 없다.”
현실적으로 ‘윤리적 AI’ 개발이 쉽지 않다는 의견도 있다.
“우리의 목표는 윤리적 추론에 참여할 수 있는 AI 시스템을 만드는 것이 아니다. 이보다는 윤리적 AI 개발 프로세스 자체를 목표로 삼아야 한다. AI의 편견이나 부도덕한 판단을 테스트해서 이를 바로잡고, AI의 결정에 영향을 받는 당사자나 AI 사용자에게 이 판단을 제대로 설명해야 한다. 이런 문제 해결에 초점을 맞춰야 윤리적 AI 개발에 다가설 수 있다.”  
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT

Innovation Lab