ADVERTISEMENT

“인간에 해 끼치지 마라”…국가 AI 윤리, 미래 산업 걸림돌 될까

중앙일보

입력

업데이트

2018년 해외 저명 로봇학자 50여명은 한국과학기술원(KAIST)과 한화시스템이 추진하는 인공지능(AI) 무기 연구를 문제 삼으면서 KAIST와의 모든 공동 연구에 대한 ‘보이콧’을 선언했다. KAIST가 개발하는 AI 무기가 인간 생명을 위협할 수 있는 ‘킬러 로봇’이 될 수 있다는 우려에서였다. 당시 KAIST의 신성철 총장은 “킬러로봇을 개발할 의사가 전혀 없다”며 “인간의 의미 있는 조종 없이 허용하는 자율 무기 등 인간 존엄성에 반하는 어떤 연구 활동도 하지 않을 것”이라고 말했다.

과기정통부, AI 윤리 10대 기준안 발표

인공지능 발전이 인류에게 비극적 미래를 가지고 올 수 있음을 경고한 영화 '엑스 마키나' 포스터. [중앙포토]

인공지능 발전이 인류에게 비극적 미래를 가지고 올 수 있음을 경고한 영화 '엑스 마키나' 포스터. [중앙포토]

국가 차원의 AI 윤리 기준, 12월 발표  

AI 기술이 일상 생활은 물론, 산업현장과 의료·공공 ·군사 분야까지 적용 범위가 확대되면서 AI 기술 발전과 AI 윤리 사이에 논쟁이 되풀이되고 있다. 향후 이런 논란에 가이드라인이 될 국가 차원의 AI 윤리 기준이 나왔다. 과학기술정보통신부와 정보통신정책연구원(KISDI)은 27일 인공지능 시대 바람직한 인공지능 개발ㆍ활용 방향을 제시하기 위한 국가 인공지능 윤리기준안을 내놨다. 다음달 7일 공청회 등 의견수렴 과정을 거쳐 12월 말 최종 발표된다. 기준안은 윤리기준이 지향하는 최고가치를 ‘인간성’으로 설정하고 인간성을 위한 인공지능을 위한 3대 원칙으로 ▶인간의 존엄성 원칙 ▶사회 공공선 원칙 ▶기술의 합목적성을 강조했다. 이어 10대 핵심 요건으로 인권 보장ㆍ프라이버시 보호ㆍ다양성 존중ㆍ침해금지ㆍ공공성ㆍ연대성ㆍ데이터 관리ㆍ책임성ㆍ안전성ㆍ투명성 등을 명시했다.

국가 인공지능 윤리기준안. 그래픽=신재민 기자 shin.jaemin@joongang.co.kr

국가 인공지능 윤리기준안. 그래픽=신재민 기자 shin.jaemin@joongang.co.kr

가장 강조된 부분은 ‘인간 존엄’이다. 기준안은 ‘인간 존엄성 원칙’을 통해 “인공지능이 인간의 생명은 물론 정신적ㆍ신체적 건강에 해가 되지 않는 범위에서 개발과 활용이 이뤄져야 한다”고 강조했다. 또‘침해금지’요건을 통해“인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다”고 명시했다.

"인간 해치지 마라" …EU '로봇 시민법' 뼈대    

인공지능이 어떠한 형태로든 인간을 헤쳐선 안 된다는 주장은 로봇ㆍ인공지능의 역사에서 오랫동안 자리 잡아 온 불문율 중 하나다. 1942년 과학자이자 과학소설(SF) 작가인 아이작 아시모프가 소설에 명시한 ‘로봇 3원칙’은 21세기 각국에서 로봇과 인공지능에 대한 윤리 기준을 마련하는데 뼈대가 됐다. 로봇 3원칙 중 1원칙이 바로 “로봇은 인간에게 해를 입혀선 안 된다”는 원칙이다. EU는 2017년‘로봇 시민법’을 제정하면서 “로봇은 인간을 다치게 해선 안 되며, 인간이 다치도록 방관해서도 안 된다”고 명시했다.

영화 '아이로봇'의 한 장면.

영화 '아이로봇'의 한 장면.

그러나 인공지능이 고도화되고 ICT 산업이 발전하면서 AI에게 요구되는 윤리 기준도 더 다양해졌다. 문정욱 KISDI 지능정보사회정책센터장은 “기술환경과 시대 변화에 맞게 다양성과 프라이버시 등 인공지능에 대한 다양한 윤리 기준이 부각되고 있다”고 말했다. 다양성 요건에는 인공지능이 개발 단계에서 사용자의 다양성과 대표성을 반영하는 한편, 인공지능의 혜택이 사회적 약자나 취약 계층에게도 골고루 분배돼야 한다는 내용이 포함됐다. 또 프라이버시 요건에선 “개인의 프라이버시를 보호하고 개인정보의 오용을 최소화하도록 노력한다”는 내용을 담고 있다.

산업계, “기술 무르익지 않았는데 허들부터 만든다”

하지만 이런 윤리 기준이 한창 기술 발전을 이룩해야 할 산업계의 또 하나의 ‘허들(걸림돌)’로 작용할 것이란 우려도 만만치 않다. 이명호 여시재 기획위원은 “우리나라 인공지능 기술 수준도 낮고, 현실에 접목되는 사례도 많지 않은 상황에서 국가 주도의 윤리 기준부터 만드는 것은 성급한 시도”라고 말했다. 개발자와 기업에 기술적 부담으로 작용할 우려도 꾸준히 제기돼 왔다. 실제 초안에 포함됐던 ‘경고성’ 기준은 산업 발전을 오히려 위축시킬 수 있다는 반대 여론으로 이번 안에서는 배제됐다. 경고성 원칙은 인간이 인공지능을 통제할 수 없는 상황에서 원래 역할대로 복귀해야 한다는 원칙으로, 현재 기술적으로 달성이 어려운 상황에서 되려 향후 AI 기술 개발에 걸림돌이 된다는 지적이 제기됐다.

국내 인공지능 시장 전망. 그래픽=김영희 02@joongang.co.kr

국내 인공지능 시장 전망. 그래픽=김영희 02@joongang.co.kr

 이에 대해 김경만 과기정통부 인공지능기반정책과장은 “산업 성장을 제약하지 않고, 기업에 부당한 부담을 지우지 않는 것을 목표로 한다”며 “영역별 세부 규범이 유연하게 발전할 수 있는 기반을 조성하겠다”고 강조했다. 고학수 서울대학교 법학전문대학원 교수는 “인공지능 윤리 문제는 네이버ㆍ구글 등 실제 기업이 첨단 인공지능 기술을 개발했을 때 어떤 부작용이 나올 수 있고, 이를 어떻게 줄일가란 관점에서 접근해야 한다”며 “개발자가 고민이 되는 지점에 대한 실용적인 기준이 마련되야 ‘살아있는’ 원칙으로 작용할 수 있다”고 말했다.

김경진 기자 kjink@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT