ADVERTISEMENT
오피니언 김병필의 인공지능 개척시대

인공지능과 소통하는 세상

중앙일보

입력

업데이트

지면보기

종합 23면

김병필 KAIST 기술경영학부 교수

김병필 KAIST 기술경영학부 교수

새해가 되면 할 일이 있다. 매해 달라지는 법 제도를 숙지하는 것이다. 세상이 빨리 변하니 법령도 덩달아 자주 바뀐다. 새롭게 달라진 제도를 따라잡지 못해 낭패를 보는 일이 없도록 신경 쓸 필요가 있다.

올해 인공지능 분야에서는 중요하게 법 제도가 달라지는 것이 있다. 인공지능을 이용한 자동화 결정에 있어 ‘설명 요구권’이 도입된다. 앞으로 인공지능이 개인정보를 이용해 어떤 결정을 내리면, 인공지능이 왜 그런 결정을 내렸는지 이용자에게 설명해 주어야 한다. 작년 초 개인정보 보호법이 개정되면서 추가된 내용인데, 오는 3월 시행 예정이다.

설명 요구권이 모든 인공지능 활용 사례에 적용되는 것은 아니다. 인공지능으로 어떤 결정을 ‘완전히’ 자동화하는 경우에만 적용된다. 가령 인공지능의 평가를 참고 자료로만 활용하고 인간이 최종 결정을 내린다면 그 이유를 설명할 필요가 없다. 또한 개개인의 권리 의무에 영향을 끼치는 중요한 결정에 주로 적용될 것으로 예상된다. 채용 등 인사·노무 분야, 금융 사기 탐지 등이 대표적인 적용 대상이다.

김지윤 기자

김지윤 기자

아직 설명 요구권이 인정되는 범위가 넓지는 않지만, 법적으로 이러한 제도가 도입된 것은 적지 않은 의의가 있다. 인공지능이 내린 판단에 관해 인간에게 설명하는 것은 앞으로 인공지능이 인간과 공존하기 위한 중요한 전제 조건이 될 것이기 때문이다.

사람은 본디 어울려 사는 존재다. 그래서 서로의 판단이나 행동을 납득하고 그에 맞추어 살아가야 한다. 그러려면 서로가 서로에게 자신의 결정에 관해 이유를 설명해 주어야 한다. 세상이 원활히 굴러가는 데 있어 ‘설명’은 핵심적 역할을 한다.

예컨대 누군가를 처벌하거나 징계하려면 그 이유를 미리 알려주고 이의를 제기할 기회를 꼭 주어야 한다. 우리 헌법상 인정되는 적법 절차의 원칙이다. 꼭 중대한 사안이 아니더라도 우리의 소소한 일상에서도 설명은 중요하다. 한 심리학자는 도서관 복사기 앞에 늘어선 줄 앞으로 끼어드는 실험을 했다. 자신이 왜 급하게 복사기를 써야 하는지 그 이유를 차근히 설명하면 많은 이들이 흔쾌히 먼저 복사하는 것을 허락해 주었다고 한다. 하지만 이유를 설명하지 않고 막무가내로 끼어드는 새치기는 허락하지 않았다.

AI 활용한 자동화 결정에 대해
새해부터 ‘설명 요구권’ 도입
AI가 소통의 벽 되지 않도록
판단 내려진  과정까지 밝혀야

이처럼 설명은 자기 마음대로 행동하지 않고 타인과 어울려 살 수 있게 하는 근간이 된다. 과거 상명하복 제도에 익숙하던 시절에는 설명이 거추장스럽고 비효율적인 것으로 여겨지기도 했다. 어떤 결정에 대해 이유를 설명해 달라고 요구하는 것이 주제넘은 행동인 양 비치기도 했다. 하지만 이제 사회가 달라졌다. 상명하복만으로는 오해와 갈등이 쌓여갈 뿐, 사회 구성원이 서로 존중하고 배려하며 화합하기 어렵다는 점을 다들 알아가고 있다.

앞으로 인공지능이 우리 삶의 곳곳으로 침투하면서 인공지능의 판단이 우리 삶의 여러 국면에서 중요하게 작용할 것이다. 과거 “윗사람이 더 잘 알고 있으니 윗사람이 시키면 그대로 따라야 한다”는 논리가, 이제는 “인공지능이 더 잘 알고 있으니 인공지능의 판단을 그대로 따라야 한다”는 생각으로 이어질 위험도 있다. 이를 두고 ‘알고리즘 독재’의 위험성이라 지칭하기도 한다.

인공지능의 결정에 관해 설명할 의무를 부과하는 것은 우리 사회가 자칫 이러한 방향으로 나아가지 않도록 막는 역할을 할 수 있다. 사람이 내려야 할 중요한 결정을 인공지능에 떠넘기고, ‘인공지능의 판단’이라는 이름으로 새로운 소통의 벽이 생기지 못하도록 해야 한다.

이제껏 인공지능은 ‘블랙박스’라 여겨져 왔다. 인공지능 내부에서 어떤 일이 일어나고 있는지 알기 어렵다는 뜻이다. 특히 챗GPT와 같은 초거대 인공지능은 그 작동 원리가 잘 밝혀지지 못한 부분이 여전히 적지 않다. 인공지능 기술이 빠르게 발전하는 만큼 블랙박스 문제도 더 심각해져 가고 있다.

그래서 인공지능의 블랙박스를 열고 인공지능이 ‘왜’ 그러한 판단을 내렸는지 밝히는 일이 어느 때보다 중요하게 되었다. 개인정보 보호법에 인공지능 결정에 있어 설명 요구권을 도입한 것은 법 제도적 차원에서 이 문제에 대응하기 위한 것이다.

블랙박스 문제에 대응하기 위해서는 기술적 차원의 노력도 필요하다. 기술적으로 인공지능의 내부 작동 원리를 설명하려는 시도를 흔히 ‘설명 가능 인공지능 연구’라 부른다. 많은 연구자가 노력하고 있지만 인공지능 판단에 관한 설명의 정확성과 일관성을 보장하는 데는 여전히 어려움을 겪고 있다. 연구 개발에 더욱 많은 투자와 지원이 필요하다.

새해를 맞아 인공지능이 아니더라도 우리 사회 전반에 걸쳐 설명의 의의를 다시금 곱씹어 보면 좋겠다. 일방적으로 결정을 내린 다음 권위에 근거해 복종을 요구하는 것이 아니라 설명과 설득을 통해 서로 화합하는 사회로 발전해 가는 한 해가 되길 바란다.

김병필 KAIST 기술경영학부 교수