ADVERTISEMENT

[틴틴 경제] IT기업들 왜 ‘인공지능 윤리 규범’ 만드나요?

중앙일보

입력

업데이트

지면보기

경제 09면

Q. 신문을 보는데 최근 몇 년 새 ‘인공지능(AI) 윤리’와 관련한 각종 규범을 만드는 정부·기업들이 늘어나고 있다고 하네요. 인공지능은 무엇인지 알겠는데 인공지능 윤리는 어떤 상황에서 쓰는 말인가요? 이런 규범은 왜 필요한가요?

AI가 의사·변호사·작곡가 대체 #새 기술, 인간과 충돌 늘어나 #구글·아마존 등 “AI 윤리 정하자” #카카오, 국내 첫 윤리 규정 제정

AI 발전 부작용 이미 출현 … 인간 넘어서면 위험할 수도"

A. 틴틴 여러분도 요즘 인공지능(AI)이란 단어가 꽤 익숙해졌지요? 인공지능 로봇, 인공지능 스피커, 인공지능 기반 가전제품들이 우리 생활 속에서도 익숙해질 정도로 늘어나고 있으니까요.

로봇·사물인터넷(IoT)·네트워크 등 갈수록 빠르게 발전하는 최첨단 정보기술(IT)은 우리 생활 속으로 급속히 파고 들고 있습니다. 그간 인간이 당연히 해야만 했던 일들도 인공지능이 척척 대신해내는 경우가 늘어나고 있어요.

머지않아 상용화될 자율주행 자동차가 대표적입니다. 애플·BMW 등 글로벌 IT·자동차 기업들이 개발에 박차를 가하는 자율주행차는 인공지능 기술을 기반으로 하고 있습니다. 자율주행차는 기존 자동차에 고도의 센서·카메라·위치기반시스템(GPS) 등이 더해진 스마트 차량인데요. 인공지능이 이런 센서 등을 토대로 주변 상황을 감지하고 스스로 차량을 주행하게 됩니다.

[김주원 기자 zoom@joongang.co.kr]

[김주원 기자 zoom@joongang.co.kr]

국내 일부 대형병원에도 도입된 인공지능 의사 ‘왓슨’은 인간 의사보다 더 빠른 결정을 합니다. IBM의 인공지능 엔진 ‘왓슨’은 인공지능과 빅데이터를 기반으로 환자에 대한 진단과 처방을 단 8초 만에 끝낼 수 있거든요. 지난 2월 국내 한 대형 로펌에 취직한 인공지능 변호사 ‘유렉스’는 인간 변호사 여러 명이 수일에 걸쳐서 해야 하는 리서치 업무를 1분 안에 해치우고 있습니다. 구글이 2016년 공개한 인공지능 작곡가 ‘마젠타’는 80초 길이의 피아노곡을 뚝딱 작곡합니다.

하지만 인공지능과 로봇이 우리 생활을 파고들었을 때 발생하는 부작용 및 부정적인 사례도 갈수록 늘어나고 있습니다. 지난 2월 미국에서 인공지능을 활용한 자산 관리 서비스 ‘로보 어드바이저’가 잘못된 계산을 해 뉴욕 증시를 폭락하게 하는 일이 발생했습니다. 인공지능 기술로 유명인의 얼굴을 성인물과 합성하는 ‘딥페이크’ 기술이 논란이 되기도 했습니다.

인공지능이 사람의 생명을 위협하는 사례도 늘어나고 있습니다. 지난 3월 미국에서는 우버 자율주행차가 잘못된 상황 판단으로 여성 보행자를 치어 사망하게 하는 사고가 발생했습니다.

이스라엘의 한 로봇 회사는 2016년 인간의 조작, 결정 없이도 알아서 총기를 발사하는 살상 무기 로봇 ‘도고’를 선보였습니다. 러시아도 같은 해 주변 6㎞에 있는 사람과 물체를 추적해 저격하는 킬러 로봇을 국경에 배치했습니다.

영화 ‘터미네이터’에서는 스카이넷이라는 인공지능이 자아를 가지면서 전 인류와 전쟁을 벌이는 설정이 나옵니다. 기술이 지금과 같은 속도로 발전하면 영화 속 상상이 현실로 다가올 수도 있다는 우려가 커지고 있습니다.

세계적인 미래학자 레이 커즈와일은 2005년 저술한 책 『특이점이 온다』에서 “2029년에는 인간 수준의 지능을 갖춘 컴퓨터가 등장할 것이고, 2045년에 기계가 인류를 넘어서는 순간(이를 ‘특이점’이라고 합니다)이 도래할 것”이라고 일찌감치 예측하기도 했습니다. 인공지능과 기계가 과도하게 진화하면 인간이 기술을 제대로 이해하지 못하는 단계에 이른다는 것입니다.

커즈와일은 인공지능과 이를 기반으로 하는 새로운 기술·서비스가 인간과 충돌할 수밖에 없기 때문에 이를 조율하는 절차가 필요하다고 설명했습니다.

최근 몇 년 전부터 각국 정부와 IT 기업들이 “‘착한 인공지능’을 개발하자”는 요지의 규정을 만드는 곳이 늘어나고 있습니다. 기술 발전이 아무리 중요하다지만 그 발전 방향과 목표가 인류 모두의 편익과 행복 추구에 맞춰져야 한다는 것입니다. 인공지능이 인간의 상식과 윤리 규범을 준수하려면 결국 이 같은 기술을 개발하고 관리하는 개발자·관리자들에게도 높은 도덕적 책무를 요구해야 합니다.

지난해 1월 미국 캘리포니아의 아실로마에는 최근 작고한 우주 물리학자 스티븐 호킹 박사, 알파고를 개발한 데미스 허사비스, 테슬라의 최고경영자(CEO) 일론 머스크 등이 모여서 ‘아실로마 AI 원칙’을 발표했습니다. 총 23가지로 구성된 세부 규칙에는 틴틴 여러분들이 읽어봐도 흥미로운 구절이 여럿 있습니다. “고도의 인공지능 시스템은 작동하는 동안 인간의 가치와 일치하는 목표와 행동을 보여야 한다”, “인공지능 시스템이 자기 복제를 통해 빠르게 성능이 좋아진다면 이 시스템은 다시 엄격한 통제 조치를 받아야 한다”는 규칙이 눈에 띄네요.

2016년에는 구글·페이스북·아마존·IBM 등 내로라하는 글로벌 IT 기업들이 인공지능 관련 윤리 문제를 해결하기 위해 ‘파트너십 온 AI’라는 비영리 단체를 조직했습니다. 인간과 인공지능과의 협업은 장려하되 인공지능이 인류에 미치는 부작용을 방지하는 차원에서 관련 위원회·연구 단체들을 후원하고 있습니다.

영국은 정부 차원에서 관련 규범을 제정하고 있습니다. 영국 하원의 과학기술위원회는 2012년부터 로봇과 인공지능의 기술 발전 현황과 사회적 영향력에 대한 보고서를 이미 여러 차례 발표했습니다.

이 위원회가 2016년에 발표한 44쪽 분량의 ‘로봇과 인공지능 보고서’에서는 “인공지능에 편견이 들어가지 않아야 한다” 등 인공지능이 반드시 준수해야 할 규칙을 설명하고 있습니다. 위원회는 또 정부 차원에서 인공지능·로봇의 부작용을 막기 위해 사회적 토론을 장려하고 해결 방안을 제시해야 한다고 주장합니다.

우리나라에서는 2007년 산업자원부(현재 산업통상자원부)가 사회 각계 철학·기술 전문가들과 함께 ‘로봇윤리헌장’을 제정한 적이 있습니다. 세계 최초 로봇 관련 윤리헌장으로 알려진 이 헌장은 로봇제조부터 사용자가 지켜야 하는 윤리 규범 등을 담고 있습니다. 메신저 ‘카카오톡’으로 익숙한 카카오는 지난 1월 국내 기업 중에서는 최초로 ‘알고리즘 윤리 헌장’을 발표했습니다. 카카오는 이 헌장을 발표하면서 “인공지능의 위상이 높아짐에 따라 알고리즘과 관련한 윤리 의식을 확보하는 것은 이를 만드는 기업들의 사회적 책임”이라고 강조했습니다.

인공지능과 로봇이 인간 사회를 위협하지 않고 공생하는 것은 이제 모든 기업과 정부의 과제가 됐습니다. 틴틴 여러분도 이 같은 인공지능 윤리 규정에 어떤 내용이 더 추가되면 좋을지 고민해보는 것도 좋을 것 같아요.

하선영 기자 dynamic@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT