"AI 개발자·제공자 책임 명확하게" 정부, AI 윤리원칙 첫 공개

중앙일보

입력 2020.12.23 11:00

정부가 바람직한 인공지능(AI) 개발·활용 방향을 제시하는 'AI 윤리기준'을 마련했다. 과학기술정보통신부와 정보통신정책연구원이 23일 대통령 직속 4차산업혁명위원회 전체회의에서 AI 윤리기준을 공개했다. 여기에는 AI 개발 기업은 물론 이를 활용하는 이용자와 정부 등 모든 이해관계자가 지켜야하는 원칙과 실행 방안이 담겨있다.

경제협력개발기구(OECD)와 EU 등 세계 각국과 국제기구들은 수년 전부터 AI 윤리기준을 앞다퉈 만들었다. EU는 지난해 '신뢰할 수 있는 AI 윤리 가이드라인'을, 올해 2월에는 'AI 백서'를 연이어 발표했다. 향후 AI 관련 입법의 근거가 될 'AI 헌법'인 셈이다. OECD도 지난해 5월 AI 권고안을 발표했고, 여기엔 한국 정부도 참여했다.

과기부는 이러한 글로벌 추세에 발맞춰 지난 1년간 'AI 윤리기준' 마련을 추진해왔다. 지난 4월에는 AI·윤리 전문가들이 참여하는 '인공지능 윤리연구반'을 발족해 국내외 AI 윤리원칙을 분석하고, 윤리기준 초안을 만들었다. 약 석달간 학계·기업·시민단체 등 다양한 전문가로부터 의견을 수렴했다고 한다.

정부가 발표한 'AI 윤리기준'은 '사람 중심의 인공지능'을 위한 3대 기본원칙과 10대 핵심 요건을 제시한다. 3대 기본원칙은 AI가 인간성(Humanity)을 구현하기 위해 AI의 개발·활용 과정에서 ▶인간의 존엄성 ▶사회의 공공선 ▶기술의 합목적성을 지켜야 한다는 것이 핵심이다.

3대 기본원칙을 실현할 수 있는 10대 핵심 요건은 AI 전체 생명 주기에 걸쳐서 사람들이 지켜야 하는 조건들을 제시한다. 인권보장·프라이버시 보호·다양성 존중·데이터 관리·안전성 등이 대표적이다.

AI를 활용한 안면인식 기술 [EPA=연합뉴스]

AI를 활용한 안면인식 기술 [EPA=연합뉴스]

AI 윤리기준은 특히 AI가 야기할 수 있는 부작용과 불평등을 우려한다. "AI를 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 하고, 성별·지역 등 개인 특성에 따른 편향과 차별을 최소화해야"한다고 강조하고 있다.

AI 기술의 근간이 되는 데이터를 어떻게 관리해야 하는지도 규정했다. "개인정보 등 데이터를 목적 외 용도로 활용하지 말아야 하며, 데이터 편향성을 최소화하기 위해 데이터 품질과 위험을 관리해야 한다"는 것이다.

또 AI를 만든 개발자와 제공자의 책임도 규정하고 있다. 10대 핵심 요건 중에 '책임성'을 언급한 부분에서는 "AI 개발 및 활용 과정에서 책임주체를 설정해 피해를 최소화해야 한다"며 "AI를 설계하는 개발자, 서비스 제공자, 사용자 간의 책임 소재를 명확하게 해야 한다"고 강조했다. AI를 활용하는 과정에서 문제가 발생했을시 사용자가 AI 작동을 제어할 수 있어야 한다.

최기영 과기부 장관은 "AI 윤리기준은 우리 사회가 AI 윤리 이슈에 대해 토론·숙의하는 시작점이 될 것"이라며 "AI가 사람 중심으로 기능할 수 있는 플랫폼이 되도록 노력하겠다"고 강조했다.

하선영 기자 dynamic@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT

Innovation Lab

ADVERTISEMENT