[팩플] 필수가 된 ‘윤리‧안전’…AI 기업, 대응 전문조직 마련한다

중앙일보

입력

업데이트

인공지능(AI) 발전에 맞춰 발생할 각종 위험에 대응하려는 움직임이 본격화하고 있다. 21일부터 전 세계 정상들이 참여하는 ‘AI 서울 정상회의’가 열리는 가운데 관련 기업들은 잇달아 AI 안전성과 윤리를 관리하는 전담 조직을 만들고 있다.

AP=연합뉴스

AP=연합뉴스

무슨 일이야

21일 AI 업계에 따르면 멀티모달(텍스트·이미지·음성 등을 이해) AI ‘엑사원’을 개발한 LG AI연구원은 ‘AI 윤리 사무국’의 ‘AI 윤리 분야 정책 연구’ 전문가를 채용하고 있다. 글로벌 동향에 맞춰 AI 윤리 관련 연구 및 정책 방향을 수립하고, 국내외 이해관계자들과 소통하는 것이 주요 업무다. LG AI연구원 측은 “2020년 12월 LG AI연구원 설립 시점부터 관련 분야를 준비하고 있었다”며 “AI 윤리가 향후 AI의 성능과 더불어 미래 AI 기업의 경쟁력을 좌우하게 될 것”이라고 밝혔다. 이어 “AI 기술이 더 광범위하게 실제 산업현장과 생활에서 적용되면 AI 윤리, 안전성의 중요성이 더욱 커지게 될 것”이라고 덧붙였다.

KT도 지난달 AI 기술과 관련된 잠재적 위험을 최소화하기 위한 연구를 진행하는 조직인 ‘책임감 있는 인공지능 센터’(RAIC)를 신설했다. KT 관계자는 “기존 윤리성 담당 팀을 센터급으로 격상하고 신규 채용도 진행하고 있다”고 말했다. 앞서 ‘하이퍼클로바X’를 개발한 네이버 역시 지난 1월 최고경영자(CEO) 직속 AI 안전성 연구를 전담하는 조직인 ‘퓨처AI센터’를 만들었다. 스타트업 뤼튼테크놀로지스도 내부에 AI 윤리와 안전성을 관리하는 팀이 있다.

이게 왜 중요해

업계에서는 AI 기술 고도화뿐만 아니라 AI 안전성과 윤리가 기업 활동에 영향을 준다는 인식이 확산하고 있다. 가장 큰 이유는 규제다. 세계 각국 정부는 AI 기술 발전을 독려하는 한편, 위험한 AI를 막기 위한 AI 규제도 함께 만드는 중이다. 유럽연합(EU)의 AI법이 대표적인 예다. 이미 만들어진 AI 규제에 대응하는 한편, 아직 미비한 규제를 유리하게 이끌기 위해 AI 기업들은 윤리나 안전성을 연구하는 조직을 만들고 있는 것이다. 오혜연 KAIST 전산학부 교수는 “오픈AI의 샘 올트먼 등이 AI 안전성을 강조하고 있는데, 현재 AI 산업을 리드하고 있는 기업들이 규제 주도권도 가져가고자 선제적으로 AI 윤리를 강조하는 측면도 있다”고 말했다.

김경진 기자

김경진 기자

글로벌 학계에서는 지속적으로 AI의 위험성을 경고하고 있다. AI 서울 정상회의를 앞두고 지난 17일 발표된 ‘AI 안전성에 관한 국제 과학보고서:중간 보고서’는 ‘위험을 적절히 관리해야만 전 세계가 범용AI(GPAI·챗GPT와 같이 범용적으로 쓸 수 있는 AI)의 혜택을 안전하게 누릴 수 있다’고 강조했다. 영국 과학혁신기술부와 산하 AI 안전 연구소가 발간한 이 보고서에는 전 세계 30개국 AI 전문가들의 AI안전 논의 내용이 담겼다.

AI 관련 윤리적 문제가 실제로 기업 활동에 영향을 미친 사례도 있다. 2021년 개인정보보호위원회는 AI 스타트업 스캐터랩에 1억330만원의 과징금·과태료를 부과했다. AI 챗봇 ‘이루다’를 개발하는 과정에서 이용자 동의 없이 60만명의 카카오톡 대화를 무단으로 사용했기 때문이다.

앞으로는

AI를 직접 개발하는 기업이 아니라도 기존 산업에 AI를 접목하려는 기업들이 AI 안전성 조직을 만들어야 한다는 의견도 나온다. 하정우 네이버 퓨처AI센터장은 “앞으로 모든 산업에 AI가 도입될텐데 실무를 담당하는 부서에서 어떤 AI를 써야 하는지, 데이터에 있어 문제는 없는지 등의 문제를 일일이 챙길 수 없다”며 “모든 기업에서 AI 거버넌스를 책임지는 안전성 조직이 필요해질 것”이라고 내다봤다.

안전한 AI를 만들기 위한 세계 가국 정부의 공동 노력은 계속될 예정이다. 이날부터 열리는 서울 AI 정상회의에서는 전 세계 정상들과 빅테크 인사들이 위험한 AI를 통제하기 위한 안전성을 논의한다. 올해 말 프랑스에서 세 번째 AI 안전 정상회의가 열린다.